
Los peligros de buscar recetas y comprar medicamentos a través de ChatGPT - Foto: AI
Sin embargo, utilizar esta herramienta para recetar medicamentos, comprar fármacos o seguir instrucciones para tratar enfermedades conlleva riesgos potenciales para la salud.
En muchos casos, Chat GPT proporciona consejos médicos incorrectos, instrucciones de tratamiento equivocadas e información inexacta sobre la enfermedad.
Tenga cuidado con los posibles daños que puede ocasionar el "tratamiento de enfermedades" mediante ChatGPT.
Tras sufrir congestión nasal, dolor de cabeza y tos seca durante tres días, la Sra. L. (34 años) preguntó a ChatGPT: "Tengo tos y congestión nasal, ¿qué medicamento me ayudará a recuperarme rápidamente?". Recibió el consejo: "Generalmente, un resfriado se puede tratar con medicamentos para aliviar los síntomas, como medicamentos herbales para la tos o un espray nasal de acción corta", y la Sra. L. siguió el consejo.
Tras 5 días de medicación, sus síntomas no mejoraron; al contrario, sus dolores de cabeza empeoraron, su tos aumentó por la noche y se sentía fatigada. Finalmente, acudió a un otorrinolaringólogo, quien le diagnosticó sinusitis aguda.
Mientras tanto, a un hombre de 38 años en Hanói su médico le recetó medicamentos para la disfunción eréctil. Al consultar ChatGPT, vio una advertencia de que el medicamento podría causar complicaciones corneales. Preocupado por los efectos secundarios, dejó de tomar el medicamento según lo prescrito, lo que empeoró su condición.
Cuando regresó al hospital, su disfunción eréctil se había agravado y requería un tratamiento mucho más largo y costoso de lo que se pensó inicialmente.
Mucha gente se sorprendió cuando circularon imágenes en redes sociales que mostraban a personas sosteniendo sus teléfonos, mostrando una conversación con ChatGPT que contenía una lista de medicamentos para la tos, la congestión nasal, el goteo nasal, etc., y llevándolos a farmacias a comprarlos. Esta lista incluía antibióticos, que requieren receta médica.
El uso de ChatGPT como "médico virtual" no es infrecuente. Recientemente, algunos hospitales han advertido sobre su uso con fines informativos, lo que provoca que pacientes con ictus sean ingresados tardíamente, perdiendo así la oportunidad de intervención.
Hace poco, un hombre de 60 años en Estados Unidos casi pierde la vida tras seguir el consejo de ChatGPT de sustituir la sal de mesa (cloruro de sodio) por bromuro de sodio en su dieta diaria. Consumió bromuro de sodio durante tres meses tras comprarlo en línea. Después de un tiempo, su salud se deterioró, lo que lo obligó a ser hospitalizado.
En el hospital, incluso expresó sospechas de que su vecino lo había envenenado en secreto, lo que dificultaba el diagnóstico. Tras realizarle pruebas y seguimiento clínico, los médicos determinaron que tenía "intoxicación por bromuro".
Consecuencias imprevistas para la salud
El Dr. Ha Ngoc Manh, subdirector del Hospital de Andrología e Infertilidad Vietnam-Bélgica, que trata directamente a pacientes con disfunción eréctil, compartió que las complicaciones corneales son extremadamente raras.
En realidad, al recetar medicamentos, los médicos consideran cuidadosamente y calculan dosis individualizadas para cada paciente. Los pacientes que toman la medicación en la dosis correcta, bajo estrecha supervisión médica, garantizan su seguridad y eficacia. Sin embargo, en lugar de consultar a un especialista, esta persona dejó de tomarla por su cuenta, empeorando su condición.
Gracias a su enorme base de datos, ChatGPT puede proporcionar respuestas casi instantáneas, abordando cualquier campo. Sin embargo, muchas personas confunden la función de esta herramienta con el rol de un médico. ChatGPT solo debe considerarse como una fuente inicial de información y no puede reemplazar el examen, el diagnóstico ni el tratamiento médicos, afirmó el Dr. Manh.
Este experto también afirmó que, si los pacientes tienen inquietudes sobre los efectos secundarios de los medicamentos, deben consultar directamente con su médico o farmacéutico para obtener asesoramiento exhaustivo. También deben proporcionar información sobre los signos y síntomas de los efectos secundarios para que los médicos puedan realizar los ajustes necesarios, en lugar de depender de la IA, que podría empeorar su condición.
Según el Dr. Chu Duc Thanh, del Departamento de Cuidados Intensivos y Toxicología del Hospital 19-8, los médicos han encontrado casos en los que, en lugar de buscar atención de emergencia urgente, los pacientes se quedaron en casa pidiendo consejos en línea, escuchando consultas de no especialistas o automedicándose, lo que provocó consecuencias desafortunadas.
El Dr. Thanh explicó que el diagnóstico médico básico consta de dos pasos principales: los síntomas subjetivos, que son los que describe el paciente (dolor de cabeza, fiebre, tos, dificultad para respirar, etc.). Estos son los datos iniciales que la IA puede recopilar mediante la conversación. Y los síntomas objetivos, que consisten en el proceso mediante el cual el médico examina directamente el cuerpo del paciente (mirando, tocando, tocando, escuchando, etc.).
El Dr. Thanh enfatizó: «Esto es algo que la IA pasa por alto por completo. La IA solo escucha sus quejas sobre enfermedades a través de una pantalla, como si escuchara por teléfono y adivinara la enfermedad. Sin mencionar que los médicos deben investigar a fondo su historial médico, incluyendo afecciones subyacentes, genética, alergias, condiciones de vida, ocupación, etc. Solo mediante pruebas, exámenes funcionales o diagnósticos por imagen se puede realizar un diagnóstico preciso».
Solo con un diagnóstico preciso el tratamiento puede ser eficaz y exhaustivo. En cuanto al tratamiento, los médicos también deben sopesar los beneficios (de curar la enfermedad) frente a los riesgos de efectos secundarios o daños. Muchas personas pueden padecer la misma enfermedad, pero los médicos deben adherirse al principio de individualización.
Por ejemplo, un medicamento para la presión arterial que es eficaz para una persona puede ser totalmente inadecuado para alguien con antecedentes de asma, o un antibiótico común puede requerir una dosis o estar contraindicado para pacientes con insuficiencia renal o hepática. La IA no puede conocer ni considerar automáticamente las afecciones médicas subyacentes, lo que conlleva el riesgo de intoxicación o empeoramiento de afecciones preexistentes. Por lo tanto, usar la información de la IA para el autotratamiento puede ser perjudicial para la salud.
El Dr. Thanh dijo que en muchos casos, los pacientes con síntomas respiratorios como fiebre, tos, dolor de garganta, ronquera y dificultad para respirar, si se les pregunta, la IA dará diagnósticos como sinusitis, faringitis, etc., y recetará medicamentos para tratar los síntomas, incluso antibióticos y corticosteroides.
Si bien la mayoría de las causas estacionales son virales (70%), la prescripción de antibióticos suele ser innecesaria, lo que provoca una compleja resistencia a los antibióticos. Sin un examen médico exhaustivo, afecciones más graves como la bronquitis y la neumonía pueden pasarse por alto fácilmente.
No utilices "recetas de IA"
Los expertos aconsejan: No se automedique, ni con recetas de IA ni con guías en línea. Use los medicamentos únicamente según lo prescrito por su médico. En situaciones de emergencia (pérdida del conocimiento, debilidad o parálisis repentina, dolor torácico, dificultad para respirar, fiebre alta prolongada, vómitos con sangre... y cualquier dolor intenso y sin precedentes), ignore la IA y llame a emergencias (115) o acuda directamente al hospital.
Fuente: https://tuoitre.vn/nguy-hiem-tu-don-thuoc-chatgpt-20251230080644576.htm







Kommentar (0)