
Zakłady na życie z „doktorem AI”
Pani Phan Thien (34 lata, mieszkanka gminy Hoc Mon w Ho Chi Minh ) powiedziała, że w przeszłości, gdy tylko miała nietypowe objawy zdrowotne, zgłaszała się do szpitala na badanie kontrolne. Jednak odkąd poznała narzędzia AI, które potrafią objaśniać objawy i dostarczać informacji o zdrowiu, często przed wizytą u lekarza pyta „lekarza AI”.
„Korzystam z ChatGPT, aby dowiedzieć się, jak opiekować się moim dzieckiem, albo sprawdzić objawy, aby dowiedzieć się, na jaką chorobę mogę cierpieć, a potem idę do szpitala na badanie kontrolne. Często, gdy idę do szpitala, lekarz po prostu mnie bada i wystawia receptę, nie wyjaśniając zbyt wiele, dlatego często przesyłam wyniki badań, prosząc AI o bardziej szczegółowe wyjaśnienie. Kiedyś lekarz po prostu przepisał leki, ale nic nie wyjaśnił, więc zapytałam ponownie na Gemini i lepiej zrozumiałam, kiedy je brać i na co zwracać uwagę podczas jedzenia i picia” – powiedziała pani Thien.
Pan Tran Van Duc (45 lat, okręg Thu Duc) podzielił się również informacją, że przesłał obraz MRI kręgosłupa do ChatGPT, aby uzyskać opinie. Narzędzie oparte na sztucznej inteligencji (AI) postawiło diagnozę „łagodnego wypuklenia dysku”, co różni się od diagnozy przepukliny krążka międzykręgowego stawianej przez wielu lekarzy, u których był. Pan Duc powiedział, że na sztucznej inteligencji nie można w pełni polegać, powinna ona służyć jedynie jako punkt odniesienia i wymagać weryfikacji i potwierdzenia przez lekarza.
Dr Le Thi Thu Huong, kierownik Oddziału Chorób Wewnętrznych i Chorób Układu Oddechowego w Szpitalu Ludowym Gia Dinh, opowiedziała, że pewnego razu przyjęła pacjenta, który przyszedł do kliniki zaniepokojony, mając przy sobie długą listę badań, które chciał wykonać.
Po bliższym przyjrzeniu się lekarz zauważył, że wiele badań z listy nie było odpowiednich dla wieku pacjenta i jego aktualnego stanu zdrowia. Dotyczyło to również badań bardzo specjalistycznych i drogich, o których przeciętnemu człowiekowi trudno byłoby pomyśleć lub które trudno byłoby mu wybrać.
W odpowiedzi na szczegółowe pytania pacjent stwierdził, że martwi się o funkcjonowanie nerek i płuc, dlatego wyszukał informacje w internecie i skorzystał z ChatGPT, aby zadać pytania. Następnie sporządził listę badań i przyniósł ją do szpitala z nadzieją, że uda mu się je wykonać zgodnie z zaleceniami sztucznej inteligencji. Doktor Thu Huong zapewnił, że nie jest to odosobniony przypadek w erze cyfrowej.

Szpital Gia An 115 (Ho Chi Minh City) również przyjął wiele przypadków hospitalizacji z powodu pogorszenia stanu zdrowia po konsultacji z „lekarzem AI”. Typowym przykładem jest 42-letnia pacjentka z rozpoznaną cukrzycą typu 2, która przyjmowała leki od ponad 6 miesięcy. Podczas leczenia farmakologicznego poziom cukru we krwi pacjentki ustabilizował się.
Jednak po przeczytaniu w internecie i zapytaniu AI, pacjent pomyślał, że mógłby odstawić lek, po prostu jedząc zdrową żywność o niskiej zawartości cukru i skrobi. Pacjent przestał brać leki i odczuwał zmęczenie, wzmożone pragnienie, częste oddawanie moczu i niekontrolowany wysoki poziom cukru we krwi. Na szczęście pacjent w porę zgłosił się do lekarza, w przeciwnym razie mogłoby to doprowadzić do poważnych powikłań, takich jak śpiączka z powodu kwasicy ketonowej.
Albo przypadek 38-letniego pacjenta z dyslipidemią, któremu przepisano statyny w celu kontroli poziomu cholesterolu we krwi. Jednak pacjent sam zaprzestał przyjmowania leku, kierując się niepotwierdzonymi informacjami z AI i niektórych stron internetowych, zastępując go ziołowymi lekami reklamowanymi jako „naturalnie redukujące poziom tłuszczu we krwi” bez konsultacji z lekarzem. Po kilku miesiącach wskaźnik tłuszczu we krwi wzrósł, pacjent odczuwał ból w klatce piersiowej i trudności w oddychaniu. Podczas badania lekarz stwierdził objawy niedokrwienia mięśnia sercowego i zwężenia tętnic wieńcowych.
Sztuczna inteligencja nie może zastąpić lekarzy
Według dr Le Thi Thu Huong, ludzie chętnie szukają internetowych narzędzi do wyszukiwania informacji medycznych ze względu na ich wygodę, szybkość i inicjatywę. Dr Huong zauważyła jednak, że chociaż sztuczna inteligencja jest w stanie przetwarzać duże ilości danych, technologia ta nie potrafi bezpośrednio badać, prowadzić obserwacji klinicznych ani oceniać ryzyka dla konkretnej osoby. Sztuczna inteligencja może również wywoływać „halucynacje”, podając fałszywe informacje, które brzmią przekonująco i mogą być łatwo mylone z interpretacją.

„Przy tych samych objawach każda osoba może mieć zupełnie inną chorobę i jej przebieg. Samodzielne stosowanie sugestii sztucznej inteligencji jest nie tylko niedokładne, ale także kosztowne ze względu na niepotrzebne badania, a nawet może być szkodliwe, jeśli przyjmujesz leki na własną rękę” – powiedział dr Thu Huong.
Specjalista II, lekarz Truong Thien Niem, kierownik Oddziału Badań Szpitala Gia An 115, stwierdził, że narzędzia oparte na sztucznej inteligencji przynoszą wiele korzyści, pomagając ludziom uzyskać dostęp do ogólnych informacji, zrozumieć typowe objawy i lepiej przygotować się przed wizytą u lekarza.
Jednak aby postawić trafną diagnozę, konieczne jest połączenie badania klinicznego i badań paraklinicznych, takich jak obrazowanie, badania krwi, endoskopia itp. Recepta i leczenie zależą również od stanu zdrowia pacjenta, choroby podstawowej, historii choroby i oceny lekarza – czynników, których sztuczna inteligencja nie jest w stanie zastąpić.
Dr Niem podkreślił, że arbitralna zmiana lub przerwanie leczenia na podstawie informacji pochodzących ze sztucznej inteligencji niesie ze sobą wiele potencjalnych zagrożeń, które mogą prowadzić do utraty kontroli nad chorobą i niebezpiecznych powikłań. Dr Niem uważa, że leczenie wymaga ścisłego monitorowania przez lekarza, zwłaszcza w przypadku chorób przewlekłych lub osób z ciężkimi objawami.
Według dr. Niema, sztuczna inteligencja może być przydatna w wyszukiwaniu wiedzy ogólnej lub poznawaniu zdiagnozowanej choroby, ale gdy pojawią się nietypowe objawy lub stan się pogorszy, pacjent musi udać się do placówki medycznej na bezpośrednie badanie. „Sztuczna inteligencja ma jedynie charakter wspomagający i nie może zastąpić roli lekarza w diagnozie i leczeniu” – potwierdził dr Niem.
Podzielając ten sam pogląd, dr Thu Huong uważa, że ludzie mogą korzystać ze sztucznej inteligencji w celu znalezienia ogólnych informacji, ale absolutnie nie powinni sami stawiać diagnoz ani polegać na internetowych sugestiach leczenia. Dr Le Thi Thu Huong podkreśliła, że wszystkie protokoły medyczne muszą być spersonalizowane w oparciu o rzeczywiste badania, wyniki badań paraklinicznych i oceny specjalistów. Dlatego w przypadku utrzymujących się nieprawidłowych objawów najważniejsze jest udanie się do placówki medycznej na badanie, a nie zwlekanie z powodu „pozornie rozsądnej” porady ze strony sztucznej inteligencji.
Źródło: https://baohaiphong.vn/rui-ro-khi-tu-chan-doan-benh-bang-bac-si-ai-528393.html






Komentarz (0)