Vietnam.vn - Nền tảng quảng bá Việt Nam

Les dangers des « prescriptions ChatGPT »

ChatGPT – un outil d'intelligence artificielle (IA) – devient un outil de recherche et de récupération d'informations utile pour de nombreuses personnes.

Báo Tuổi TrẻBáo Tuổi Trẻ30/12/2025

ChatGPT - Ảnh 1.

Les dangers de la consultation d'ordonnances et de l'achat de médicaments via ChatGPT - Photo : IA

Toutefois, l'utilisation de cet outil pour prescrire des médicaments, acheter des drogues ou suivre des instructions pour traiter des maladies comporte des risques potentiels pour la santé.

Dans de nombreux cas, Chat GPT fournit des conseils médicamenteux incorrects, des instructions de traitement erronées et des informations inexactes sur la maladie.

Les prescriptions basées sur l'IA manquent de responsabilité, de capacité à examiner les patients, d'empathie et d'éthique médicale, ainsi que de discernement entre urgences et maladies graves. Par conséquent, pour votre sécurité et celle de vos proches, laissez les médecins décider du traitement.
Docteur CHU DUC THANH

Attention aux risques potentiels liés au « traitement des maladies » via ChatGPT.

Souffrant de congestion nasale, de maux de tête et d'une toux sèche depuis trois jours, Mme L. (34 ans) a demandé à ChatGPT : « J'ai une toux et le nez bouché, quel médicament peut m'aider à guérir rapidement ? ». Elle a reçu le conseil suivant : « En général, un rhume peut être traité avec des médicaments symptomatiques comme un sirop contre la toux à base de plantes ou un spray nasal à usage ponctuel », et Mme L. a suivi ce conseil.

Après cinq jours de traitement, ses symptômes ne s'améliorèrent pas ; au contraire, ses maux de tête s'intensifièrent, sa toux nocturne augmenta et elle se sentit fatiguée. Finalement, elle consulta un ORL, qui diagnostiqua une sinusite aiguë.

Parallèlement, un homme de 38 ans habitant Hanoï s'est vu prescrire un médicament contre les troubles de l'érection. En consultant ChatGPT, il a découvert un avertissement indiquant que ce médicament pouvait entraîner des complications cornéennes. Inquiet des effets secondaires, il a interrompu son traitement, ce qui a aggravé son état.

À son retour à l'hôpital, son dysfonctionnement érectile s'était aggravé, nécessitant un traitement beaucoup plus long et coûteux que prévu initialement.

De nombreuses personnes ont été stupéfaites de voir circuler sur les réseaux sociaux des images montrant des individus, leur téléphone affichant une conversation avec ChatGPT contenant une liste de médicaments contre la toux, la congestion nasale, le rhume, etc., qu'ils emportaient ensuite en pharmacie pour les acheter. Cette liste comprenait des antibiotiques, qui nécessitent une ordonnance.

Le recours à ChatGPT comme « médecin virtuel » est fréquent. Récemment, certains hôpitaux ont mis en garde contre l'utilisation de ChatGPT à des fins purement informatives, ce qui entraîne une admission tardive des patients victimes d'AVC, les privant ainsi du moment opportun pour une intervention.

Il y a peu, un Américain de 60 ans a failli perdre la vie après avoir suivi les conseils de ChatGPT, qui préconisait de remplacer le sel de table (chlorure de sodium) par du bromure de sodium dans son alimentation quotidienne. Il a consommé du bromure de sodium pendant trois mois après s'en être procuré sur internet. Au bout d'un certain temps, son état de santé s'est dégradé, nécessitant une hospitalisation.

À l'hôpital, il a même exprimé des soupçons quant à un possible empoisonnement par son voisin, ce qui a compliqué le diagnostic. Après des examens et une surveillance clinique, les médecins ont conclu à une intoxication au bromure.

Conséquences sanitaires imprévues

Le Dr Ha Ngoc Manh, directeur adjoint de l'hôpital d'andrologie et d'infertilité Vietnam-Belgique, qui traite directement les patients souffrant de dysfonction érectile, a indiqué que les complications cornéennes sont extrêmement rares.

En réalité, lorsqu'ils prescrivent des médicaments, les médecins évaluent et calculent soigneusement les doses individuelles en fonction de l'état de santé de chaque patient. Les patients qui prennent leurs médicaments à la dose appropriée, sous étroite surveillance médicale, bénéficient d'une sécurité et d'une efficacité optimales. Or, au lieu de consulter un spécialiste, cette personne a interrompu son traitement de son propre chef, aggravant ainsi son état.

« Grâce à son immense base de données, ChatGPT peut fournir des réponses quasi instantanées, dans tous les domaines. Cependant, beaucoup confondent la fonction de cet outil avec le rôle d'un médecin. ChatGPT ne doit être considéré que comme une source d'information initiale et ne peut en aucun cas remplacer un examen médical, un diagnostic et un traitement », a déclaré le Dr Manh.

Cet expert a également indiqué que lorsque les patients s'inquiètent des effets secondaires d'un médicament, ils devraient consulter directement leur médecin ou leur pharmacien pour obtenir des conseils approfondis. Ils devraient également fournir des informations sur les signes et symptômes des effets secondaires afin que les médecins puissent adapter le traitement en conséquence, plutôt que de se fier à une intelligence artificielle susceptible d'aggraver leur état.

Selon le Dr Chu Duc Thanh, du service de soins intensifs et de toxicologie de l'hôpital 19-8, les médecins ont rencontré des cas où, au lieu de chercher d'urgence des soins d'urgence, les patients sont restés chez eux à demander des conseils en ligne, à écouter des consultations de non-spécialistes ou à s'automédiquer, ce qui a conduit à des conséquences malheureuses.

Le Dr Thanh a expliqué que le diagnostic médical de base comprend deux étapes principales : les symptômes subjectifs, c’est-à-dire ce que le patient décrit (maux de tête, fièvre, toux, essoufflement, etc.). Ce sont les données initiales que l’IA peut recueillir par la conversation. Ensuite, les symptômes objectifs, qui correspondent à l’examen direct du corps du patient par le médecin (observation, palpation, auscultation, etc.).

Le Dr Thanh a souligné : « C’est un aspect que l’IA néglige complètement. Elle se contente d’écouter vos plaintes concernant vos maladies à travers un écran, comme au téléphone, et de deviner le problème. Sans compter que les médecins doivent examiner en profondeur vos antécédents médicaux, y compris les affections sous-jacentes, la génétique, les allergies, les conditions de vie, la profession, etc. Seuls des tests, des examens fonctionnels ou des examens d’imagerie permettent d’établir un diagnostic précis. »

Seul un diagnostic précis permet un traitement efficace et complet. Concernant le traitement, les médecins doivent également évaluer les bénéfices (de la guérison) par rapport aux risques d'effets secondaires ou d'effets indésirables. Plusieurs personnes peuvent souffrir de la même maladie, mais les médecins doivent respecter le principe de l'individualisation.

Par exemple, un médicament contre l'hypertension efficace pour une personne peut être totalement inadapté à une personne asthmatique, ou un antibiotique courant peut nécessiter un ajustement posologique ou être contre-indiqué chez les patients souffrant d'insuffisance rénale ou hépatique. L'IA ne peut pas connaître et prendre en compte automatiquement vos antécédents médicaux, ce qui entraîne un risque d'intoxication ou d'aggravation de pathologies préexistantes. Par conséquent, l'utilisation des informations fournies par l'IA pour l'automédication peut être dangereuse pour la santé.

Le Dr Thanh a déclaré que dans de nombreux cas, les patients présentant des symptômes respiratoires tels que fièvre, toux, maux de gorge, enrouement et essoufflement, si on les interroge, l'IA posera des diagnostics comme sinusite, pharyngite, etc., et prescrira des médicaments pour traiter les symptômes, voire des antibiotiques et des corticostéroïdes.

Bien que la majorité des causes saisonnières soient virales (70 %), la prescription d'antibiotiques est souvent inutile, ce qui engendre une résistance accrue aux antibiotiques. Sans examen médical approfondi, des affections plus graves comme la bronchite et la pneumonie peuvent facilement passer inaperçues.

N'utilisez pas de "prescriptions d'IA"

Les experts conseillent : ne pratiquez pas l’automédication, que ce soit avec des « ordonnances d’IA » ou des guides en ligne. Utilisez uniquement les médicaments prescrits par votre médecin. En cas d’urgence (perte de connaissance, faiblesse ou paralysie soudaine, douleur thoracique, essoufflement, forte fièvre prolongée, vomissements de sang… et toute douleur intense et inhabituelle), ignorez les indications de l’IA et appelez les services d’urgence (115) ou rendez-vous immédiatement à l’hôpital.

Revenons au sujet.
SAULE

Source : https://tuoitre.vn/nguy-hiem-tu-don-thuoc-chatgpt-20251230080644576.htm


Comment (0)

Laissez un commentaire pour partager vos ressentis !

Même sujet

Même catégorie

Même auteur

Patrimoine

Chiffre

Entreprises

Actualités

Système politique

Locale

Produit

Happy Vietnam
Jeunes femmes des hauts plateaux de Ha Giang

Jeunes femmes des hauts plateaux de Ha Giang

Les enfants de Ha Giang

Les enfants de Ha Giang

Matinée à Mo Si San

Matinée à Mo Si San