
Wcześniej obawy dotyczące „degradacji umiejętności” spowodowanej przez sztuczną inteligencję były w dużej mierze spekulatywne. Teraz zaczynają pojawiać się pierwsze dane empiryczne. Choć wciąż są to wstępne sygnały, są one na tyle silne, że zasługują na uwagę środowiska medycznego.
Oznaki spadku umiejętności podczas kolonoskopii wspomaganej sztuczną inteligencją.
Badanie obserwacyjne z 2025 r., którego wyniki opublikowano w czasopiśmie The Lancet Gastroenterology & Hepatology, dotyczyło systemów sztucznej inteligencji służących do wykrywania gruczolaków – łagodnych zmian w przewodzie pokarmowym, które mogą przekształcić się w raka.
Wyniki pokazały, że endoskopiści, którzy regularnie korzystali z AI, mieli znacznie niższy wskaźnik wykrywalności gruczolaków – z 29% do 22% – wykonując zabiegi bez pomocy AI. Sugeruje to, że długotrwała ekspozycja na AI może negatywnie wpływać na mierzalną skuteczność kliniczną.
„Pułapka poznawcza”: Kiedy ludzie przestają myśleć
Psychologia poznawcza oferuje wyjaśnienie tego zjawiska. Liczne badania wykazały odwrotną korelację między częstym korzystaniem ze sztucznej inteligencji a zdolnością krytycznego myślenia. Kluczowy mechanizm nazywa się odciążeniem poznawczym (ang. cognitive offloading).
Kiedy ludzie zbyt mocno polegają na narzędziach, mózg ogranicza swoje wysiłki w zakresie niezależnej analizy.
Problem nie leży w samej sztucznej inteligencji. Problem leży w biernej akceptacji – kiedy ludzie przestają zadawać pytania.
Ryzyko uzależnienia się jeszcze przed opanowaniem danej umiejętności.
Jeśli bierna zależność stanowi ryzyko dla wszystkich lekarzy, to najbardziej niebezpieczne konsekwencje mogą dotknąć tych, którzy są na etapie szkolenia.
Badanie dotyczące diagnostyki mammograficznej wykazało, że zdolność wykrywania błędów generowanych przez sztuczną inteligencję jest silnie zależna od doświadczenia. W symulowanym scenariuszu, w którym sztuczna inteligencja podawała nieprawidłowe sugestie, odsetek prawidłowej interpretacji obrazu wyniósł zaledwie 20% w grupie osób z mniejszym doświadczeniem, 25% w grupie osób ze średnim doświadczeniem i 46% w grupie osób z dużym doświadczeniem.
Rodzi to obawy dotyczące zjawiska zwanego „nigdy nieumiejętnością” – nigdy nierozwijania prawdziwych umiejętności. Jeśli pacjenci będą polegać na diagnozach różnicowych generowanych przez sztuczną inteligencję, zanim sami zmierzą się z niejednoznacznością kliniczną, solidny fundament myślenia diagnostycznego może nigdy nie zostać zbudowany.
Nie chodzi o to, że utraciłeś posiadane umiejętności, ale raczej o to, że nigdy nie osiągnąłeś w nich mistrzostwa.
Czy sztuczna inteligencja osłabia umiejętności czy przyspiesza ewolucję?
Debata często sprowadza się do dualistycznego podejścia: sztuczna inteligencja albo sprawia, że lekarze stają się „zdegenerowani”, albo przemienia ich w „nadludzi”. Rzeczywistość jest o wiele bardziej złożona.
Medycyna stale ewoluuje wraz ze swoimi narzędziami: stetoskopami, tomografami komputerowymi, elektroniczną dokumentacją medyczną. Każda technologia zmienia procesy i wymaga nowego poziomu zrozumienia. Nikt nie zaprzeczy, że rozwój diagnostyki obrazowej pozbawił lekarzy pracy, mimo że przesuwa on punkt ciężkości ze szczegółowego badania fizykalnego na interpretację obrazów i syntezę kliniczną.
Dlatego zrozumienie sztucznej inteligencji — a nie jej unikanie — może okazać się najważniejszym czynnikiem ochronnym.
Co można zrobić, aby zmniejszyć ryzyko obniżenia umiejętności?
Opracowywanych jest kilka strategii edukacyjnych . Na przykład, wymaganie od lekarzy – zwłaszcza tych w trakcie specjalizacji – przeprowadzania niezależnych ocen przed rozważeniem sugestii AI. Jednak wdrożenie może być trudne, ponieważ AI staje się coraz bardziej powszechna i dostępna.
Innym podejściem jest opracowanie interpretującej sztucznej inteligencji. Zamiast po prostu oznaczać obszar płuca jako „podejrzewany nowotwór złośliwy”, system mógłby wyświetlić mapę cieplną pokazującą, które piksele mają największy wpływ na decyzję. Zmusza to lekarzy do zrozumienia „dlaczego”, przekształcając sztuczną inteligencję z autopilota w narzędzie do ciągłego uczenia się.
Inne rozwiązania obejmują techniki „przymusu poznawczego” – wymagające od użytkowników uzasadnienia zaakceptowania sugestii sztucznej inteligencji – lub projektowanie procesów, które umożliwiają wyświetlanie sugestii później, a nie domyślnie.
Jednakże nie opracowano jeszcze żadnej strategii, która mogłaby zostać potwierdzona badaniami klinicznymi i faktycznie zapobiegać utracie umiejętności.
Przyszłość zależy od tego, jak ją wdrożymy.
Wyzwaniem dla medycyny nie jest walka ze sztuczną inteligencją, lecz celowe jej zintegrowanie.
Sztuczna inteligencja niewątpliwie zmieni sposób pracy lekarzy. Jednak to, czy osłabi, czy wzmocni ich umiejętności, zależy wyłącznie od tego, jak ją wykorzystamy.
W przyszłości lekarze będą polegać na algorytmach. Jednak umiejętnością decydującą o karierze może nie być większa pamięć czy szybsze diagnozowanie, ale raczej umiejętność kwestionowania sztucznej inteligencji, wyciągania z niej wniosków i odwaga, by interweniować, gdy popełnia błąd.
(Źródło: Forbes)
Źródło: https://vietnamnet.vn/ai-co-lam-thoai-hoa-ky-nang-bac-si-2494140.html






Komentarz (0)