Vietnam.vn - Nền tảng quảng bá Việt Nam

Los peligros de las "recetas de ChatGPT"

ChatGPT, una herramienta de inteligencia artificial (IA), se está convirtiendo en una útil herramienta de búsqueda y recuperación de información para muchas personas.

Báo Tuổi TrẻBáo Tuổi Trẻ30/12/2025

ChatGPT - Ảnh 1.

Los peligros de buscar recetas y comprar medicamentos a través de ChatGPT - Foto: IA

Sin embargo, utilizar esta herramienta para recetar medicamentos, comprar fármacos o seguir instrucciones para el tratamiento de enfermedades conlleva riesgos potenciales para la salud.

En muchos casos, Chat GPT proporciona consejos incorrectos sobre medicamentos, instrucciones de tratamiento erróneas e información inexacta sobre la enfermedad.

Las prescripciones de IA carecen de responsabilidad, de la capacidad de examinar a los pacientes, de la empatía propia de la ética médica y de la habilidad para distinguir entre emergencias y enfermedades críticas. Por lo tanto, dejemos que sean los médicos quienes decidan el tratamiento para proteger su seguridad y la de sus seres queridos.
Doctor Chu Duc Thanh

Tenga cuidado con los posibles daños que puede ocasionar el "tratamiento de enfermedades" mediante ChatGPT.

La Sra. L. (34 años), que sufría de congestión nasal, dolor de cabeza y tos seca desde hacía tres días, preguntó a ChatGPT: «Tengo tos y congestión nasal, ¿qué medicamento me ayudará a recuperarme rápidamente?». Recibió el siguiente consejo: «Por lo general, un resfriado se puede tratar con medicamentos para aliviar los síntomas, como jarabes para la tos a base de hierbas o aerosoles nasales de acción corta», y la Sra. L. siguió el consejo.

Tras cinco días de tratamiento, sus síntomas no mejoraron; al contrario, empeoraron sus dolores de cabeza, aumentó su tos nocturna y se sentía fatigada. Finalmente, acudió a un otorrinolaringólogo, quien le diagnosticó sinusitis aguda.

Mientras tanto, un hombre de 38 años en Hanói recibió una receta médica para la disfunción eréctil. Al consultar ChatGPT, vio una advertencia de que el medicamento podría causar complicaciones corneales. Preocupado por los efectos secundarios, dejó de tomarlo según lo prescrito, lo que provocó que su condición empeorara.

Cuando regresó al hospital, su disfunción eréctil se había agravado, requiriendo un tratamiento mucho más prolongado y costoso de lo que se pensaba inicialmente.

Mucha gente se sorprendió al ver en redes sociales imágenes de personas con sus teléfonos móviles, que mostraban una conversación con ChatGPT con una lista de medicamentos para la tos, la congestión nasal, la secreción nasal, etc., y que luego iban a las farmacias a comprarlos. Esta lista incluía antibióticos, que requieren receta médica.

El uso de ChatGPT como "médico virtual" no es infrecuente. Recientemente, algunos hospitales han advertido sobre el uso de ChatGPT con fines informativos, lo que provoca que los pacientes con ictus sean ingresados ​​tarde, perdiendo así la oportunidad crucial para la intervención.

No hace mucho, un hombre de 60 años en Estados Unidos estuvo a punto de perder la vida tras seguir un consejo de ChatGPT, sustituyendo la sal de mesa (cloruro de sodio) por bromuro de sodio en su dieta diaria. Consumió bromuro de sodio durante tres meses tras comprarlo por internet. Al cabo de un tiempo, su salud empeoró, lo que obligó a su hospitalización.

En el hospital, incluso expresó la sospecha de que su vecino lo había envenenado en secreto, lo que dificultó el diagnóstico. Tras realizarle pruebas y un seguimiento clínico, los médicos determinaron que padecía una intoxicación por bromuro.

Consecuencias imprevistas para la salud

El Dr. Ha Ngoc Manh, subdirector del Hospital de Andrología e Infertilidad Vietnam-Bélgica, que trata directamente a pacientes con disfunción eréctil, comentó que las complicaciones corneales son extremadamente raras.

En realidad, al recetar medicamentos, los médicos consideran cuidadosamente y calculan dosis individualizadas que se ajusten a la condición médica de cada paciente. Los pacientes que toman la medicación en la dosis correcta, bajo estricta supervisión médica, garantizan la seguridad y la eficacia del tratamiento. Sin embargo, en lugar de consultar a un especialista, esta persona dejó de tomar la medicación por su cuenta, empeorando su estado.

«Gracias a su enorme base de datos, ChatGPT puede proporcionar respuestas casi instantáneas en cualquier ámbito. Sin embargo, muchas personas confunden la función de esta herramienta con la de un médico. ChatGPT debe considerarse únicamente como una fuente inicial de información y no puede sustituir la exploración, el diagnóstico ni el tratamiento médicos», afirmó el Dr. Manh.

Este experto también afirmó que, cuando los pacientes tengan inquietudes sobre los efectos secundarios de la medicación, deben consultar directamente con su médico o farmacéutico para obtener asesoramiento detallado. Asimismo, deben proporcionar información sobre los signos y síntomas de los efectos secundarios para que los médicos puedan realizar los ajustes necesarios, en lugar de depender de la IA, que podría empeorar su estado.

Según el Dr. Chu Duc Thanh, del Departamento de Cuidados Intensivos y Toxicología del Hospital 19-8, los médicos se han encontrado con casos en los que, en lugar de buscar atención de emergencia con urgencia, los pacientes se quedaron en casa pidiendo consejo en línea, escuchando consultas de no especialistas o automedicándose, lo que tuvo consecuencias desafortunadas.

El Dr. Thanh explicó que el diagnóstico médico básico incluye dos pasos principales: los síntomas subjetivos, que son los que describe el paciente (dolor de cabeza, fiebre, tos, dificultad para respirar, etc.). Estos son los datos iniciales que la IA puede recopilar a través de la conversación. Y los síntomas objetivos, que consisten en el proceso de examen físico directo del paciente por parte del médico (observación, tacto, auscultación, etc.).

El Dr. Thanh recalcó: "Esto es algo que la IA pasa completamente por alto. La IA solo escucha tus quejas sobre enfermedades a través de una pantalla, como si escucharas por teléfono y adivinaras la enfermedad. Sin mencionar que los médicos necesitan investigar a fondo tu historial médico, incluyendo afecciones subyacentes, genética, alergias, circunstancias de vida, ocupación, etc. Solo mediante pruebas, exámenes funcionales o diagnósticos por imágenes se puede realizar un diagnóstico preciso".

Solo con un diagnóstico preciso se puede lograr un tratamiento eficaz y completo. En cuanto al tratamiento, los médicos deben sopesar los beneficios (de curar la enfermedad) frente a los riesgos de efectos secundarios o daños. Si bien muchas personas pueden padecer la misma enfermedad, los médicos deben respetar el principio de individualización.

Por ejemplo, un medicamento para la presión arterial que es eficaz para una persona puede ser totalmente inadecuado para alguien con antecedentes de asma, o un antibiótico común puede requerir una dosificación específica o estar contraindicado en pacientes con insuficiencia renal o hepática. La IA no puede conocer ni considerar automáticamente sus afecciones médicas subyacentes, lo que conlleva el riesgo de intoxicación o el empeoramiento de afecciones preexistentes. Por lo tanto, utilizar información de IA para el autotratamiento puede ser perjudicial para la salud.

El Dr. Thanh afirmó que, en muchos casos, a los pacientes con síntomas respiratorios como fiebre, tos, dolor de garganta, ronquera y dificultad para respirar, si se les pregunta, la IA les dará diagnósticos como sinusitis, faringitis, etc., y les recetará medicamentos para tratar los síntomas, incluso antibióticos y corticosteroides.

Si bien la mayoría de las enfermedades estacionales son de origen viral (70%), la prescripción de antibióticos suele ser innecesaria, lo que genera una compleja resistencia a los antibióticos. Sin un examen médico exhaustivo, afecciones más graves como la bronquitis y la neumonía pueden pasar desapercibidas fácilmente.

No utilices "recetas de IA".

Los expertos aconsejan: No se automedique, ni con "recetas de IA" ni con guías en línea. Use únicamente los medicamentos recetados por su médico. En caso de emergencia (pérdida del conocimiento, debilidad o parálisis repentina, dolor en el pecho, dificultad para respirar, fiebre alta prolongada, vómito con sangre… y cualquier dolor intenso e inusual), ignore la IA y llame a los servicios de emergencia (115) o acuda inmediatamente al hospital.

Volvamos al tema.
SAUCE

Fuente: https://tuoitre.vn/nguy-hiem-tu-don-thuoc-chatgpt-20251230080644576.htm


Kommentar (0)

¡Deja un comentario para compartir tus sentimientos!

Mismo tema

Misma categoría

Mismo autor

Herencia

Cifra

Empresas

Actualidad

Sistema político

Local

Producto

Happy Vietnam
Colores de Vietnam

Colores de Vietnam

cultura de alta flexibilidad

cultura de alta flexibilidad

Las familias se reúnen para prepararse para el tradicional Año Nuevo Lunar.

Las familias se reúnen para prepararse para el tradicional Año Nuevo Lunar.