Nguyen Thu Huong, de 21 años y estudiante universitaria en Hanói , tiene la costumbre de buscar de todo en internet, desde ejercicios y consejos de belleza hasta dietas. Últimamente, Huong sufre a menudo de dolor en la región epigástrica, náuseas nocturnas y, en ocasiones, vómitos. En lugar de ir al hospital, la joven utiliza la aplicación ChatGPT para consultar con un médico virtual.
La IA analiza las descripciones de los síntomas y concluye que “puede tener”. gastritis Leve debido al estrés. A Huong le aconsejaron cambiar su dieta, acostarse temprano, limitar el consumo de café y usar algunos antiácidos de venta libre que ChatGPT mencionó. Encontró esos medicamentos en línea y los tomó regularmente durante dos semanas.
El dolor inicial disminuyó y Huong se convenció de que «la IA es tan buena como un médico». En la tercera semana, empezó a vomitar sangre mezclada con líquido, tuvo calambres en la parte superior del abdomen y sudor frío. Su familia la llevó a urgencias debido a una hemorragia digestiva grave.
La gastroscopia mostró que el paciente tenía úlcera duodenal La enfermedad progresa, puede causar úlceras profundas, hemorragias por el uso incorrecto de antiácidos y una causa primaria no tratada: la infección por Helicobacter pylori. Si el paciente llega al hospital con algunas horas de retraso, puede sufrir un choque hemorrágico.
Tras casi una semana de tratamiento intensivo, Huong finalmente estaba fuera de peligro. Recostada en la cama del hospital, compartió: " Pensaba que la IA era inteligente y hablaba de forma convincente como un médico de verdad, así que le creí. Ahora entiendo que la IA no puede reemplazar un diagnóstico real".

Le Hoang Long, de 27 años, programador en Ciudad Ho Chi Minh, suele trabajar hasta las 2 o 3 de la madrugada. Tras meses de insomnio, se sentía estresado, cansado y con taquicardia. Sin querer consultar a un psiquiatra por miedo a que lo etiquetaran como enfermo, Long se sinceró con ChatGPT y pidió sugerencias para superar el problema.
La IA le recomendó probar “métodos naturales” como beber té de hierbas, tomar suplementos de melatonina, meditar antes de acostarse y, “si fuera necesario, combinar algunos sedantes chinos”. Long siguió estas instrucciones y también encargó un producto “importado de pastillas para dormir a base de hierbas” cuyo origen la IA no pudo verificar.
Tras dos semanas, Long empezó a dormir mejor, pero comenzó a tener ictericia, pérdida de apetito y fatiga. Creyendo que se debía a una «depuración corporal», siguió bebiendo. Solo cuando su orina se oscureció y su piel adquirió un tono amarillo intenso acudió al hospital para un chequeo.
Los resultados de las pruebas mostraron que las enzimas hepáticas estaban diez veces por encima de lo normal, según el diagnóstico del médico. hepatitis Debido a la toxicidad de ingredientes medicinales desconocidos, Long tuvo que ser hospitalizado para recibir fluidos intravenosos, antídotos y monitorización continua de la función hepática.
Tras el incidente, Long admitió: “La IA me ayuda a adquirir conocimientos, pero no sabe quién soy ni la gravedad de mi enfermedad. He sacrificado mi salud por una fe ciega en la tecnología.”
Según la Dra. Pham Ngoc Ha, MSc. del Departamento de Obstetricia y Ginecología del Hospital Thanh Nhan, lo preocupante no es la inteligencia artificial (IA), sino la forma en que la gente la percibe y la utiliza. La IA es, en esencia, una potente herramienta que ayuda a sintetizar, organizar e interpretar información de diversas fuentes, lo que nos permite comprender los problemas con mayor rapidez y profundidad.
Sin embargo, la IA no tiene ojos para observar, ni manos para tocar la herida, ni experiencia clínica para reconocer anomalías en la mirada o la voz del paciente.
En medicina, el diagnóstico es un proceso complejo. El médico comienza escuchando los síntomas del paciente, observando las manifestaciones, examinando mediante la vista, el tacto, la percusión y la auscultación, y comparando los resultados de las pruebas, las imágenes diagnósticas y el historial clínico. Cada decisión terapéutica se basa en una combinación de datos científicos y experiencia acumulada a lo largo del tiempo. Ningún algoritmo puede simularlo por completo.
En pocas palabras, la IA es como un cuchillo afilado. En manos de un chef, es una herramienta útil para crear un plato delicado; pero si se la da a un niño, el riesgo de que se corte es inevitable. El problema no es el cuchillo, sino el usuario.
Por lo tanto, la IA no está equivocada; el error radica en que se espera demasiado de sus capacidades. La inteligencia artificial no es un médico y no puede reemplazar la observación, el diagnóstico ni el juicio humanos. Desde una perspectiva médica, la IA debe considerarse únicamente como un extenso diccionario de referencia, pero no debe depositarse en ella una confianza absoluta en lo que respecta a la salud y la vida humanas.

El Dr. Truong Huu Khanh, exjefe del Departamento de Enfermedades Infecciosas y Neurología del Hospital Infantil N.° 1 (Ciudad Ho Chi Minh), comentó que en medicina, la IA no puede reemplazar el papel clínico ni humano. Si bien la IA puede ser útil en muchos campos, en el ámbito médico, la experiencia, la sensibilidad y la vocación del médico son cualidades que las máquinas no pueden replicar.
Cada paciente debe ser examinado de forma directa y exhaustiva, no solo basándose en unos pocos síntomas descritos en línea para realizar un diagnóstico. El médico debe observar, palpar, realizar percusiones, auscultar, indagar cuidadosamente sobre los antecedentes médicos del paciente y evaluar su estado general para poder llegar a una conclusión precisa.
El Dr. Khanh cree que la IA o los "médicos de internet" pueden considerarse una fuente de información que ayuda a las personas a comprender mejor la salud y la prevención de enfermedades. Sin embargo, no pueden reemplazar a los médicos de verdad.
La IA solo proporciona información general y no puede evaluar el daño a órganos internos, el historial médico ni las reacciones adversas a medicamentos de cada persona. El autodiagnóstico y el autotratamiento basados en sugerencias de chatbots conllevan muchos riesgos, especialmente en el caso de enfermedades crónicas.
ChatGPT está abriendo un nuevo enfoque a la educación sanitaria, pero debe considerarse un asistente informativo, no un decisor, porque la medicina aún requiere intuición humana y experiencia clínica.
Fuente: https://baolangson.vn/tin-chatgpt-chua-benh-nhieu-nguoi-tre-dang-danh-cuoc-suc-khoe-5063604.html






Kommentar (0)