Nguyen Thu Huong, 21 ans, étudiante à l'université à Hanoï , a l'habitude de tout chercher en ligne : exercices, conseils beauté, régimes… Récemment, elle souffre fréquemment de douleurs épigastriques, de nausées nocturnes et parfois d'autres maux de tête. Au lieu d'aller à l'hôpital, elle utilise l'application ChatGPT pour « consulter un médecin virtuel ».
L'IA analyse les descriptions des symptômes et conclut à la présence possible de symptômes. gastrite « C’était léger, dû au stress. » On a conseillé à Huong de modifier son alimentation, de se coucher tôt, de limiter sa consommation de café et de prendre des antiacides sans ordonnance recommandés par ChatGPT. Elle a trouvé ces médicaments en ligne et les a pris régulièrement pendant deux semaines.
La douleur initiale s'est atténuée et Huong a acquis la conviction que « l'IA est aussi efficace qu'un médecin ». Au cours de la troisième semaine, elle a commencé à vomir du sang mêlé de liquide, a souffert de crampes dans le haut de l'abdomen et a eu des sueurs froides. Sa famille l'a emmenée aux urgences en raison d'une grave hémorragie digestive.
La gastroscopie a révélé que le patient avait ulcère duodénal L'évolution de la maladie peut entraîner des ulcères profonds, des saignements dus à une utilisation inappropriée d'antiacides et à une infection à Helicobacter pylori non traitée. Si le patient arrive à l'hôpital avec quelques heures de retard, il risque un choc hémorragique.
Après près d'une semaine de soins intensifs, Huong était enfin hors de danger. Allongée sur son lit d'hôpital, elle a confié : « Je pensais que l'IA était intelligente et parlait de façon convaincante comme un vrai médecin, alors je l'ai crue. Maintenant, je comprends que l'IA ne peut pas remplacer un diagnostic humain. »

Le Hoang Long, 27 ans, programmeur à Hô Chi Minh-Ville, travaille souvent jusqu'à 2 ou 3 heures du matin. Après des mois d'insomnie, il se sentait stressé, épuisé et souffrait de palpitations. Ne souhaitant pas consulter un psychiatre par « peur d'être considéré comme malade », Long s'est confié à ChatGPT et a demandé des conseils pour surmonter son problème.
L'IA lui a conseillé d'essayer des « méthodes naturelles » comme boire des tisanes, prendre des suppléments de mélatonine, méditer avant de se coucher et, « si nécessaire, associer certains sédatifs chinois ». Long a suivi ces instructions et a également commandé un « somnifère à base de plantes importé » dont l'IA n'a pas pu vérifier l'origine.
Au bout de deux semaines, Long dormait mieux, mais il commença à avoir la jaunisse, une perte d'appétit et de la fatigue. Pensant que c'était dû à une « cure de détoxification », il continua à boire. Ce n'est que lorsque son urine devint foncée et sa peau d'un jaune intense qu'il se rendit à l'hôpital pour un examen.
Les résultats des analyses ont montré que les enzymes hépatiques étaient dix fois supérieures à la normale, a diagnostiqué le médecin. hépatite En raison d'une intoxication due à des ingrédients médicinaux inconnus, Long a dû être hospitalisé pour recevoir une perfusion intraveineuse, des antidotes et une surveillance continue de sa fonction hépatique.
Après l'incident, Long a admis : « L’IA m’aide à acquérir des connaissances, mais elle ne sait pas qui je suis ni la gravité de ma maladie. J’ai sacrifié ma santé par pure confiance en la technologie. »
Selon le Dr Pham Ngoc Ha, titulaire d'une maîtrise et membre du département d'obstétrique et de gynécologie de l'hôpital Thanh Nhan, le problème n'est pas l'intelligence artificielle (IA) en elle-même, mais la façon dont on la perçoit et l'utilise. L'IA est essentiellement un outil puissant qui permet de synthétiser, d'organiser et d'interpréter des informations provenant de sources multiples, nous aidant ainsi à comprendre les problèmes plus rapidement et plus en profondeur.
Cependant, l'IA n'a ni yeux pour observer, ni mains pour toucher la plaie, ni expérience clinique pour reconnaître les anomalies dans le regard ou la voix du patient.
En médecine, le diagnostic est un processus complexe. Le médecin commence par écouter les symptômes du patient, observer les manifestations cliniques, procéder à un examen visuel, tactile et auditif, puis comparer les résultats des analyses, de l'imagerie et des antécédents médicaux. Chaque décision thérapeutique repose sur une combinaison de données scientifiques et d'expérience accumulée au fil du temps. Aucun algorithme ne peut reproduire pleinement ce processus.
En clair, l'IA est comme un couteau bien aiguisé. Entre les mains d'un chef, c'est un outil précieux pour concocter un plat raffiné ; mais si on la confie à un enfant, le risque de se blesser est inévitable. Le problème ne vient pas du couteau, mais de l'utilisateur.
L'IA n'est donc pas mauvaise en soi ; l'erreur réside dans les attentes trop élevées que l'on a envers elle. L'intelligence artificielle n'est pas médecin et ne peut remplacer l'observation, le diagnostic et le jugement humains. D'un point de vue médical, l'IA doit être perçue comme un immense dictionnaire auquel les utilisateurs peuvent se référer, mais en lequel ils ne doivent pas avoir une confiance absolue lorsqu'il s'agit de santé et de vie humaines.

Le Dr Truong Huu Khanh, ancien chef du service des maladies infectieuses et de neurologie de l'hôpital pour enfants n° 1 (Hô-Chi-Minh-Ville), a déclaré qu'en médecine, l'IA ne peut remplacer le rôle clinique et humain. L'IA peut certes apporter son soutien dans de nombreux domaines, mais en médecine, l'expérience, la sensibilité et l'empathie d'un médecin sont des qualités irremplaçables par les machines.
Chaque patient doit faire l'objet d'un examen direct et approfondi, et non se contenter d'établir un diagnostic à partir de quelques symptômes décrits en ligne. Le médecin doit observer, palper, tapoter, ausculter, interroger soigneusement le patient sur ses antécédents médicaux et évaluer son état général afin de pouvoir poser un diagnostic précis.
Le Dr Khanh estime que l'IA, ou « médecins en ligne », peut être considérée comme une source d'information, aidant les gens à mieux comprendre la santé et la prévention des maladies. Cependant, elle ne peut remplacer les médecins.
L'IA ne fournit que des informations générales et ne peut évaluer les lésions des organes internes, les antécédents médicaux ni les réactions médicamenteuses de chaque individu. L'autodiagnostic et l'automédication basés sur les suggestions de « chatbots » présentent de nombreux risques, notamment pour les maladies chroniques.
ChatGPT ouvre une nouvelle voie en matière d'éducation à la santé, mais doit être considéré comme un assistant d'information et non comme un outil de décision, car la médecine requiert toujours une perspicacité humaine et une expérience clinique.
Source : https://baolangson.vn/tin-chatgpt-chua-benh-nhieu-nguoi-tre-dang-danh-cuoc-suc-khoe-5063604.html






Comment (0)