Anterior, când copilul ei a prezentat simptome de tuse, nas curgător și nas înfundat, dna NTH le-a descris către ChatGPT și a rugat platforma să sugereze o metodă de tratament. Câteva secunde mai târziu, au fost furnizate „predicții” despre starea de sănătate a copilului, împreună cu o serie de sfaturi de îngrijire și tratament, inclusiv o listă de medicamente sugerate. Acestea includeau medicamente care conțin corticoizi - un compus foarte periculos pentru copiii mici.
Mulți medici au spus că au văzut numeroase cazuri de pacienți cu boli cronice a căror stare s-a agravat după ce au urmat regimul de tratament ChatGPT. Un medic de la Departamentul de Cardiologie - Spitalul General Quang Nam a împărtășit că, nu cu mult timp în urmă, a tratat doi pacienți tineri care au abuzat de „medicii specializați în inteligență artificială” și au suferit consecințe atunci când starea lor s-a agravat.
Dr. Nguyen Tam Thang, director adjunct al Spitalului General Quang Nam, a declarat că ChatGPT ar trebui considerat doar un instrument inițial pentru a sprijini oamenii în găsirea de informații medicale, recunoașterea semnelor de pericol sau pregătirea întrebărilor înainte de a merge la medic. Abuzul de inteligență artificială pentru diagnosticarea și tratarea bolilor este periculos.
„Pentru a determina clar starea bolii și a prescrie un regim de tratament, medicul trebuie să examineze cu atenție simptomele clinice, inclusiv simptomele funcționale și fizice, și să solicite teste de bază și paraclinice pentru a evalua funcția organelor, a determina cauza bolii și a bolilor asociate. Ca să nu mai vorbim de faptul că medicul trebuie să afle și istoricul medical al pacientului înainte de a pune un diagnostic definitiv și de a prescrie medicamentul adecvat pentru fiecare pacient”, a declarat Dr. Nguyen Tam Thang.
Recent, reprezentanții OpenAI au declarat că ChatGPT nu ar trebui utilizat pentru decizii medicale importante fără o evaluare umană. De fapt, utilizatorii pot totuși să întrebe ChatGPT despre simptome, concepte medicale sau proceduri medicale... dar nu vor diagnostica sau prescrie în mod specific. Acest lucru ajută la distingerea graniței dintre „informațiile medicale ” (care pot fi partajate) și „sfaturile medicale” (care trebuie să fie date de un medic).
În prezent, platformele de inteligență artificială operează pe baza datelor colectate din numeroase surse și nu sunt reprezentative pentru multe populații. Atunci când datele nu sunt complete, inteligența artificială riscă să tragă concluzii greșite. În special pentru câmpuri de informații personalizate, cum ar fi istoricul medical, regimurile de tratament, inteligența artificială nu poate face predicții sau sfaturi precise.
În plus, lista de medicamente sugerate de aplicațiile de inteligență artificială sau chatbot nu are absolut nicio valoare juridică și nu poate înlocui o rețetă valabilă. Achiziționarea arbitrară de medicamente pentru tratament, inclusiv antibiotice, face ca situația rezistenței la antibiotice să fie alarmantă.
Organizația Mondială a Sănătății (OMS) a raportat că Vietnamul se numără printre țările cu cele mai mari rate de rezistență la antibiotice din regiunea Asia- Pacific . Motivul este că majoritatea pacienților cumpără medicamente fără prescripție medicală.
Începând cu 1 octombrie, Ministerul Sănătății solicită tuturor unităților medicale de examinare și tratament care sunt spitale să implementeze rețetele electronice. Pentru alte unități medicale de examinare și tratament, aceasta va fi implementată începând cu 1 ianuarie 2026. Aceasta este foaia de parcurs a Circularei 26/2025 a Ministerului Sănătății care reglementează prescripțiile și prescripțiile de produse farmaceutice și biologice în tratamentul ambulatoriu în unitățile medicale de examinare și tratament. Ministerul Sănătății consideră că, atunci când toate rețetele sunt actualizate sincron, agenția de management poate detecta și gestiona prompt actele de abuz de droguri, rețetele care nu sunt conforme cu reglementările sau vânzarea de medicamente fără prescripție medicală.
Sursă: https://baodanang.vn/canh-giac-voi-bac-si-ai-3309646.html






Comentariu (0)