Vietnam.vn - Nền tảng quảng bá Việt Nam

Os perigos das 'prescrições ChatGPT'

O ChatGPT – uma ferramenta de inteligência artificial (IA) – está se tornando uma ferramenta útil de busca e recuperação de informações para muitas pessoas.

Báo Tuổi TrẻBáo Tuổi Trẻ30/12/2025

ChatGPT - Ảnh 1.

Os perigos de consultar receitas médicas e comprar medicamentos via ChatGPT - Foto: IA

No entanto, usar essa ferramenta para prescrever medicamentos, comprar drogas ou seguir instruções para tratar doenças acarreta riscos potenciais à saúde.

Em muitos casos, o Chat GPT fornece conselhos incorretos sobre medicamentos, instruções de tratamento erradas e informações imprecisas sobre a doença.

As prescrições automatizadas carecem de responsabilidade, da capacidade de examinar pacientes pessoalmente, da empatia da ética médica e da habilidade de distinguir entre emergências e doenças críticas. Portanto, deixe que os médicos decidam sobre o tratamento para proteger a sua segurança e a de seus entes queridos.
Doutor Chu Duc Thanh

Cuidado com os possíveis danos decorrentes do "tratamento de doenças" usando o ChatGPT.

Com sintomas de congestão nasal, dor de cabeça e tosse seca há três dias, a Sra. L. (34 anos) perguntou ao ChatGPT: "Estou com tosse e congestão nasal, qual remédio pode me ajudar a melhorar rapidamente?". Ela recebeu a seguinte recomendação: "Geralmente, um resfriado pode ser tratado com medicamentos para aliviar os sintomas, como xarope para tosse à base de ervas ou spray nasal de uso curto", e a Sra. L. seguiu a recomendação.

Após 5 dias de medicação, seus sintomas não melhoraram; pelo contrário, suas dores de cabeça pioraram, sua tosse aumentou à noite e ela se sentiu fatigada. Finalmente, ela consultou um otorrinolaringologista, que diagnosticou sinusite aguda.

Entretanto, um homem de 38 anos em Hanói recebeu uma prescrição médica para disfunção erétil. Ao consultar o ChatGPT, ele viu um alerta de que o medicamento poderia causar complicações na córnea. Preocupado com os efeitos colaterais, ele interrompeu o tratamento conforme prescrito, o que agravou seu quadro.

Ao retornar ao hospital, sua disfunção erétil havia se agravado, exigindo um tratamento muito mais longo e dispendioso do que o inicialmente previsto.

Muitas pessoas ficaram surpresas ao verem imagens circulando nas redes sociais mostrando pessoas segurando seus celulares, exibindo uma conversa com o ChatGPT contendo uma lista de medicamentos para tosse, congestão nasal, coriza, etc., e levando-os a farmácias para comprá-los. Essa lista incluía antibióticos, que exigem receita médica.

O uso do ChatGPT como um "médico virtual" não é incomum. Recentemente, alguns hospitais alertaram sobre o uso do ChatGPT para fins informativos, o que leva à admissão tardia de pacientes com AVC, fazendo com que percam a janela de oportunidade para intervenção.

Recentemente, um homem de 60 anos nos EUA quase perdeu a vida após seguir o conselho do ChatGPT de substituir o sal de cozinha (cloreto de sódio) por brometo de sódio em sua dieta diária. Ele consumiu brometo de sódio por três meses após comprá-lo online. Depois de algum tempo, sua saúde se deteriorou, obrigando-o a ser hospitalizado.

No hospital, ele chegou a suspeitar que seu vizinho o havia envenenado secretamente, o que dificultou o diagnóstico. Após exames e acompanhamento clínico, os médicos determinaram que ele tinha "intoxicação por brometo".

Consequências imprevistas para a saúde

O Dr. Ha Ngoc Manh, vice-diretor do Hospital de Andrologia e Infertilidade Vietnã-Bélgica, que trata diretamente pacientes com disfunção erétil, afirmou que as complicações na córnea são extremamente raras.

Na realidade, ao prescrever medicamentos, os médicos consideram e calculam cuidadosamente as dosagens individualizadas para atender à condição médica de cada paciente. Pacientes que tomam a medicação na dosagem correta, sob supervisão médica rigorosa, garantem segurança e eficácia. No entanto, em vez de consultar um especialista, essa pessoa interrompeu o tratamento por conta própria, agravando seu quadro clínico.

"Com seu enorme conjunto de dados, o ChatGPT pode fornecer respostas quase instantâneas, abrangendo qualquer área. No entanto, muitas pessoas estão confundindo a função dessa ferramenta com o papel de um médico. O ChatGPT deve ser considerado apenas como uma fonte inicial de informações e não pode substituir o exame, o diagnóstico e o tratamento médico", disse o Dr. Manh.

Este especialista também afirmou que, quando os pacientes têm dúvidas sobre os efeitos colaterais de um medicamento, devem consultar diretamente o médico ou farmacêutico para obterem informações detalhadas. Devem ainda fornecer informações sobre os sinais e sintomas dos efeitos colaterais para que os médicos possam fazer os ajustes necessários, em vez de recorrerem a recursos de inteligência artificial que podem agravar o quadro clínico.

Segundo o Dr. Chu Duc Thanh, do Departamento de Terapia Intensiva e Toxicologia do Hospital 19-8, os médicos se depararam com casos em que, em vez de procurarem atendimento de emergência com urgência, os pacientes permaneceram em casa pedindo conselhos online, seguindo orientações de não especialistas ou se automedicando, o que levou a consequências lamentáveis.

O Dr. Thanh explicou que o diagnóstico médico básico inclui duas etapas principais: sintomas subjetivos, que são o que o paciente descreve (dor de cabeça, febre, tosse, falta de ar, etc.). Esses são os dados iniciais que a IA pode coletar por meio da conversa. E sintomas objetivos, que são o processo de exame físico realizado pelo médico no paciente (observação, toque, palpação, ausculta, etc.).

O Dr. Thanh enfatizou: "Isso é algo que a IA ignora completamente. A IA apenas ouve suas queixas sobre doenças através de uma tela, assim como ouvir uma conversa ao telefone e adivinhar a doença. Sem mencionar que os médicos precisam investigar minuciosamente seu histórico médico, incluindo doenças preexistentes, genética, alergias, condições de vida, ocupação, etc. Somente por meio de exames, avaliações funcionais ou diagnósticos por imagem é possível chegar a um diagnóstico preciso."

Somente com um diagnóstico preciso o tratamento pode ser eficaz e completo. Em relação ao tratamento, os médicos também devem ponderar os benefícios (da cura da doença) contra os riscos de efeitos colaterais ou danos. Muitas pessoas podem sofrer da mesma doença, mas os médicos precisam seguir o princípio da individualização do tratamento.

Por exemplo, um medicamento para pressão arterial eficaz para uma pessoa pode ser totalmente inadequado para alguém com histórico de asma, ou um antibiótico comum pode precisar de dosagem ajustada ou ser contraindicado para pacientes com insuficiência renal ou hepática. A IA não consegue reconhecer e considerar automaticamente suas condições médicas preexistentes, o que pode levar ao risco de intoxicação ou agravamento de doenças pré-existentes. Portanto, usar informações de IA para automedicação pode ser prejudicial à saúde.

O Dr. Thanh afirmou que, em muitos casos, pacientes com sintomas respiratórios como febre, tosse, dor de garganta, rouquidão e falta de ar, se questionados, a IA (Inteligência Artificial) dará diagnósticos como sinusite, faringite, etc., e prescreverá medicamentos para tratar os sintomas, inclusive antibióticos e corticosteroides.

Embora a maioria das causas sazonais seja viral (70%), a prescrição de antibióticos é frequentemente desnecessária, levando à complexa resistência bacteriana. Sem um exame médico completo, doenças mais graves, como bronquite e pneumonia, podem ser facilmente negligenciadas.

Não use "prescrições de IA"

Especialistas recomendam: Não se automedique, seja com "receitas de IA" ou guias online. Use medicamentos somente conforme prescrito pelo seu médico. Em situações de emergência (perda de consciência, fraqueza ou paralisia repentina, dor no peito, falta de ar, febre alta prolongada, vômito com sangue... e qualquer dor intensa e sem precedentes), ignore a IA e ligue para o serviço de emergência (115) ou vá imediatamente ao hospital.

Voltando ao assunto
SALGUEIRO

Fonte: https://tuoitre.vn/nguy-hiem-tu-don-thuoc-chatgpt-20251230080644576.htm


Comentário (0)

Deixe um comentário para compartilhar seus sentimentos!

No mesmo tópico

Na mesma categoria

Do mesmo autor

Herança

Figura

Empresas

Atualidades

Sistema político

Local

Produto

Happy Vietnam
Noite de Lua Cheia

Noite de Lua Cheia

Rua Dinh Tien Hoang

Rua Dinh Tien Hoang

meu verão

meu verão