
Niebezpieczeństwa związane z wyszukiwaniem recept i kupowaniem leków za pośrednictwem ChatGPT – zdjęcie: AI
Jednak korzystanie z tego narzędzia w celu przepisywania leków, kupowania leków lub postępowania zgodnie z instrukcjami leczenia chorób niesie ze sobą potencjalne zagrożenia dla zdrowia.
W wielu przypadkach Chat GPT udziela błędnych porad dotyczących leków, niewłaściwych wskazówek dotyczących leczenia i nieprawdziwych informacji na temat choroby.
Uważaj na potencjalne zagrożenia wynikające z „leczenia chorób” za pomocą ChatGPT.
Pani L. (34 lata), zmagająca się z zatkanym nosem, bólem głowy i suchym kaszlem przez trzy dni, zapytała ChatGPT: „Mam kaszel i zatkany nos, jaki lek pomoże mi szybko wyzdrowieć?”. Otrzymała poradę: „Zazwyczaj przeziębienie można leczyć lekami łagodzącymi objawy, takimi jak ziołowy lek na kaszel lub krótkotrwały spray do nosa”, i pani L. zastosowała się do tej rady.
Po 5 dniach przyjmowania leków objawy nie ustąpiły; zamiast tego nasiliły się bóle głowy, kaszel nasilił się w nocy i czuła się zmęczona. W końcu udała się do laryngologa, który zdiagnozował u niej ostre zapalenie zatok.
Tymczasem 38-letniemu mężczyźnie z Hanoi lekarz przepisał lek na zaburzenia erekcji. Po sprawdzeniu ChatGPT zobaczył ostrzeżenie, że lek może powodować powikłania rogówki. Zaniepokojony skutkami ubocznymi, przestał przyjmować lek zgodnie z zaleceniami, co spowodowało pogorszenie stanu zdrowia.
Gdy wrócił do szpitala, okazało się, że jego zaburzenia erekcji są już poważne i wymagają znacznie dłuższego i droższego leczenia, niż początkowo sądzono.
Wiele osób było zdumionych, gdy w mediach społecznościowych pojawiły się zdjęcia przedstawiające ludzi trzymających telefony i wyświetlających rozmowę z ChatGPT zawierającą listę leków na kaszel, zatkany nos, katar itp., a następnie zanoszących je do aptek w celu ich zakupu. Lista ta obejmowała antybiotyki, które wymagają recepty lekarskiej.
Korzystanie z ChatGPT jako „wirtualnego lekarza” nie jest rzadkością. Ostatnio niektóre szpitale ostrzegają przed wykorzystywaniem ChatGPT w celach informacyjnych, co prowadzi do późnych przyjęć pacjentów po udarze, którzy tracą szansę na interwencję.
Niedawno 60-letni mężczyzna w USA omal nie stracił życia, postępując zgodnie z radą ChatGPT i zastępując w swojej codziennej diecie sól kuchenną (chlorek sodu) bromkiem sodu. Spożywał bromek sodu przez trzy miesiące po tym, jak zamówił go online. Po pewnym czasie jego stan zdrowia się pogorszył, co zmusiło go do hospitalizacji.
W szpitalu wyraził nawet podejrzenie, że sąsiad potajemnie go otruł, co utrudniło postawienie diagnozy. Po przeprowadzeniu badań i obserwacji klinicznej lekarze stwierdzili u niego „zatrucie bromkiem”.
Nieprzewidziane konsekwencje zdrowotne
Dr Ha Ngoc Manh, zastępca dyrektora wietnamsko-belgijskiego szpitala andrologicznego i leczenia niepłodności, który bezpośrednio leczy pacjentów cierpiących na zaburzenia erekcji, dodał, że powikłania rogówki zdarzają się niezwykle rzadko.
W rzeczywistości, przepisując leki, lekarze starannie rozważają i obliczają indywidualne dawki, dostosowując je do stanu zdrowia każdego pacjenta. Pacjenci przyjmujący leki w odpowiednich dawkach, pod ścisłym nadzorem lekarza, mogą zagwarantować sobie bezpieczeństwo i skuteczność. Jednak zamiast skonsultować się ze specjalistą, pacjent sam zaprzestał przyjmowania leków, co pogorszyło jego stan.
„Dzięki swojemu ogromnemu zbiorowi danych, ChatGPT może udzielać niemal natychmiastowych odpowiedzi, zajmując się każdą dziedziną. Jednak wiele osób myli funkcję tego narzędzia z rolą lekarza. ChatGPT należy traktować jedynie jako wstępne źródło informacji i nie może zastąpić badania lekarskiego, diagnozy i leczenia” – powiedział dr Manh.
Ekspert stwierdził również, że pacjenci, którzy mają obawy dotyczące skutków ubocznych leków, powinni zwrócić się bezpośrednio do lekarza lub farmaceuty o szczegółową poradę. Powinni również udzielić informacji o oznakach i objawach działań niepożądanych, aby lekarze mogli podjąć odpowiednie kroki, zamiast polegać na sztucznej inteligencji, która mogłaby pogorszyć ich stan.
Jak mówi dr Chu Duc Thanh z Oddziału Intensywnej Terapii i Toksykologii Szpitala 19-8, lekarze spotykali się z przypadkami, w których pacjenci zamiast pilnie szukać pomocy medycznej, pozostawali w domu, pytali o porady online, słuchali konsultacji osób niebędących specjalistami lub sami się leczyli, co prowadziło do niefortunnych konsekwencji.
Dr Thanh wyjaśnił, że podstawowa diagnoza medyczna obejmuje dwa główne etapy: objawy subiektywne, czyli to, co opisuje pacjent (ból głowy, gorączka, kaszel, duszność itp.). Są to wstępne dane, które sztuczna inteligencja może zebrać poprzez rozmowę. Oraz objawy obiektywne, czyli proces bezpośredniego badania ciała pacjenta przez lekarza (patrzenie, dotykanie, stukanie, słuchanie itp.).
Dr Thanh podkreślił: „To coś, czego sztuczna inteligencja całkowicie nie dostrzega. AI słucha jedynie skarg na choroby na ekranie, tak jak słucha przez telefon i zgaduje chorobę. Nie wspominając o tym, że lekarze muszą dokładnie przeanalizować historię choroby, w tym choroby współistniejące, genetykę, alergie, warunki mieszkaniowe, zawód itp. Tylko za pomocą testów, badań czynnościowych lub diagnostyki obrazowej można postawić trafną diagnozę”.
Tylko trafna diagnoza może zapewnić skuteczne i kompleksowe leczenie. W kontekście leczenia lekarze muszą również rozważyć korzyści (wyleczenia choroby) w porównaniu z ryzykiem wystąpienia skutków ubocznych lub szkód. Wiele osób może cierpieć na tę samą chorobę, ale lekarze muszą przestrzegać zasady indywidualizacji.
Na przykład lek na nadciśnienie, który jest skuteczny u jednej osoby, może być absolutnie nieodpowiedni dla osoby z historią astmy, a popularny antybiotyk może wymagać dawkowania lub być przeciwwskazany u pacjentów z niewydolnością nerek lub wątroby. Sztuczna inteligencja nie potrafi automatycznie rozpoznać i uwzględnić własnych schorzeń, co prowadzi do ryzyka zatrucia lub pogorszenia istniejących wcześniej schorzeń. Dlatego wykorzystywanie informacji pochodzących od sztucznej inteligencji do samodzielnego leczenia może być szkodliwe dla zdrowia.
Doktor Thanh powiedział, że w wielu przypadkach pacjenci z objawami ze strony układu oddechowego, takimi jak gorączka, kaszel, ból gardła, chrypka i duszność, jeśli zostaną o to poproszeni, sztuczna inteligencja postawi diagnozę, taką jak zapalenie zatok, zapalenie gardła itp., i przepisze leki łagodzące objawy, nawet antybiotyki i kortykosteroidy.
Chociaż większość przyczyn sezonowych ma podłoże wirusowe (70%), przepisywanie antybiotyków często jest zbędne, co prowadzi do skomplikowanej antybiotykooporności. Bez dokładnego badania lekarskiego, poważniejsze schorzenia, takie jak zapalenie oskrzeli i płuc, mogą zostać łatwo przeoczone.
Nie korzystaj z „recept AI”
Eksperci radzą: Nie stosuj samoleczenia, ani za pomocą „recept AI”, ani poradników online. Stosuj leki wyłącznie zgodnie z zaleceniami lekarza. W nagłych przypadkach (utrata przytomności, nagłe osłabienie lub paraliż, ból w klatce piersiowej, duszność, długotrwała wysoka gorączka, krwawe wymioty… oraz jakikolwiek niespotykany i intensywny ból) zignoruj AI i zadzwoń pod numer alarmowy (115) lub udaj się bezpośrednio do szpitala.
Źródło: https://tuoitre.vn/nguy-hiem-tu-don-thuoc-chatgpt-20251230080644576.htm







Komentarz (0)