Nguyen Thu Huong, 21-letnia studentka uniwersytetu w Hanoi , ma zwyczaj wyszukiwania wszystkiego w internecie – od ćwiczeń, przez porady kosmetyczne, po diety. Ostatnio Huong często odczuwa ból w nadbrzuszu, ma nudności w nocy, a czasami wręcz przeciwnie. Zamiast jechać do szpitala, studentka otwiera aplikację ChatGPT, aby „zapytać lekarza AI”.
Sztuczna inteligencja analizuje opisy objawów i wyciąga wniosek, że „mogą mieć” nieżyt żołądka Łagodny z powodu stresu”. Huong zalecono zmianę diety, wcześniejsze chodzenie spać, ograniczenie kawy i stosowanie leków zobojętniających kwas żołądkowy dostępnych bez recepty, wymienionych przez ChatGPT. Znalazła te leki w internecie i przyjmowała je regularnie przez dwa tygodnie.
Początkowy ból ustąpił, a Huong nabrała pewności, że „AI jest równie dobra jak lekarz”. W trzecim tygodniu zaczęła wymiotować krwią zmieszaną z płynem, miała skurcze w nadbrzuszu i wystąpił zimny pot. Jej rodzina zabrała ją na pogotowie z powodu poważnej utraty krwi z przewodu pokarmowego.
Gastroskopia wykazała, że u pacjenta wystąpiła wrzód dwunastnicy Postęp choroby, głębokie owrzodzenia, krwawienie spowodowane nieprawidłowym stosowaniem leków zobojętniających kwas żołądkowy i nieleczoną przyczyną pierwotną – zakażeniem Helicobacter pylori. Jeśli pacjent zgłosi się do szpitala kilka godzin później, może dojść do wstrząsu krwotocznego.
Po prawie tygodniu intensywnego leczenia Huong w końcu wyszła z niebezpieczeństwa. Leżąc na szpitalnym łóżku, wyznała: „ Myślałam, że sztuczna inteligencja jest inteligentna i przekonująco przemawia jak prawdziwy lekarz, więc uwierzyłam w to. Teraz rozumiem, że sztuczna inteligencja nie zastąpi prawdziwej diagnozy”.

Le Hoang Long, 27-letni programista z Ho Chi Minh, często pracuje do 2-3 w nocy. Po miesiącach bezsenności czuł się zestresowany, zmęczony i miał przyspieszone bicie serca. Nie chcąc iść do psychiatry, ponieważ „obawiał się, że zostanie uznany za chorego”, Long zwierzył się ChatGPT i poprosił o sugestie, jak pokonać ten problem.
AI poradziła mu, aby spróbował „naturalnych metod”, takich jak picie ziołowej herbaty, przyjmowanie suplementów melatoniny, medytacja przed snem i „w razie potrzeby połączenie chińskich środków uspokajających”. Long zastosował się do tych instrukcji, a także zamówił „importowaną ziołową tabletkę nasenną”, której pochodzenia AI nie była w stanie zweryfikować.
Po dwóch tygodniach Long mógł spać lepiej, ale zaczął odczuwać żółtaczkę, utratę apetytu i zmęczenie. Myśląc, że to z powodu „oczyszczania organizmu”, kontynuował picie. Dopiero gdy jego mocz stał się ciemny, a skóra intensywnie żółta, udał się do szpitala na badanie kontrolne.
Lekarz zdiagnozował, że wyniki badań wykazały 10-krotnie wyższy niż normalnie poziom enzymów wątrobowych zapalenie wątroby Z powodu toksyczności nieznanych składników leku. Long musiał zostać hospitalizowany w celu podania płynów dożylnych, odtrutek i ciągłego monitorowania czynności wątroby.
Po incydencie Long przyznał: „Sztuczna inteligencja pomaga mi zdobywać wiedzę, ale nie wie, kim jestem ani jak poważna jest moja choroba. Poświęciłem swoje zdrowie z powodu ślepej wiary w technologię”.
Według mgr. dr. Phama Ngoc Ha z Oddziału Położnictwa i Ginekologii Szpitala Thanh Nhan, niepokojąca nie jest sztuczna inteligencja (AI), ale sposób, w jaki ludzie ją postrzegają i wykorzystują. AI to w zasadzie potężne narzędzie, które pomaga syntetyzować, organizować i interpretować informacje z wielu źródeł, pomagając nam szybciej i głębiej zrozumieć problemy.
Jednak sztuczna inteligencja nie ma oczu, aby obserwować, rąk, aby dotykać rany, i doświadczenia klinicznego, aby rozpoznać nieprawidłowości w spojrzeniu lub głosie pacjenta.
W medycynie diagnoza to wielowarstwowa podróż. Lekarz rozpoczyna od wysłuchania objawów pacjenta, obserwacji objawów, badania wzrokowego, dotykowego, opukiwania i nasłuchiwania, porównując wyniki badań, obrazowych i wywiadu. Każda decyzja terapeutyczna jest połączeniem danych naukowych i doświadczenia gromadzonego przez lata. Żaden algorytm nie jest w stanie w pełni tego symulować.
Mówiąc wprost, sztuczna inteligencja jest jak ostry nóż. W rękach szefa kuchni jest użytecznym narzędziem do przygotowania delikatnych potraw; ale jeśli wręczy się ją dziecku, ryzyko skaleczenia dłoni jest nieuniknione. Problemem nie jest nóż, ale użytkownik.
Zatem sztuczna inteligencja nie jest w błędzie, błąd polega na tym, że ludzie oczekują zbyt wiele od jej możliwości. Sztuczna inteligencja nie jest lekarzem i nie może zastąpić ludzkiej obserwacji, diagnozy i osądu. Z medycznego punktu widzenia sztuczną inteligencję należy postrzegać jedynie jako gigantyczny słownik, w którym użytkownicy mogą wyszukiwać informacje i korzystać z niego, ale nie powinni pokładać w nim absolutnego zaufania, jeśli chodzi o ludzkie zdrowie i życie.

Dr Truong Huu Khanh, były ordynator Oddziału Chorób Zakaźnych i Neurologii w Szpitalu Dziecięcym nr 1 (HCMC), stwierdził, że w medycynie sztuczna inteligencja nie może zastąpić roli klinicysty i człowieka. Sztuczna inteligencja może wspierać wiele dziedzin, ale w medycynie doświadczenie, wrażliwość i serce lekarza to rzeczy, których maszyny nie są w stanie skopiować.
Każdy pacjent musi zostać zbadany bezpośrednio i kompleksowo, a nie tylko na podstawie kilku objawów opisanych online, aby postawić diagnozę. Lekarz musi obserwować, palpować, opukiwać, słuchać, dokładnie pytać o historię choroby pacjenta i oceniać jego ogólny stan, aby móc wyciągnąć trafne wnioski.
Dr Khanh uważa, że sztuczna inteligencja, czyli „internetowi lekarze”, mogą być źródłem informacji, pomagającym ludziom lepiej zrozumieć zdrowie i profilaktykę chorób. Nie mogą jednak zastąpić prawdziwych lekarzy.
Sztuczna inteligencja dostarcza jedynie ogólnych informacji i nie jest w stanie ocenić uszkodzeń narządów wewnętrznych, historii choroby ani reakcji na leki u poszczególnych osób. Samodiagnozowanie i leczenie oparte na „sugestiach chatbota” niesie ze sobą wiele zagrożeń, zwłaszcza w przypadku chorób przewlekłych.
ChatGPT otwiera nowe podejście do edukacji zdrowotnej, ale należy go traktować jako asystenta informacyjnego, a nie osobę podejmującą decyzje, gdyż medycyna nadal wymaga ludzkiej wiedzy i doświadczenia klinicznego.
Source: https://baolangson.vn/tin-chatgpt-chua-benh-nhieu-nguoi-tre-dang-danh-cuoc-suc-khoe-5063604.html






Komentarz (0)