Nguyen Thu Huong, 21 år gammel, student ved et universitet i Hanoi , har for vane å søke etter alt på nettet, fra trening og skjønnhetstips til dietter. I det siste har Huong ofte smerter i epigastriet, føler seg kvalm om natten og noen ganger kvalm. I stedet for å dra til sykehuset, åpner den kvinnelige studenten ChatGPT-applikasjonen for å «spørre AI-legen».
AI analyserer symptombeskrivelser og konkluderer med at «kan ha» gastritt mild på grunn av stress.» Huong ble rådet til å endre kostholdet sitt, legge seg tidlig, begrense kaffeinntaket og bruke noen reseptfrie syrenøytraliserende midler som ChatGPT listet opp. Hun fant disse medisinene på nettet og tok dem regelmessig i to uker.
Den første smerten avtok, og Huong ble tryggere på at «KI er like god som en lege». I den tredje uken begynte hun å kaste opp blod blandet med væske, fikk kramper i øvre del av magen og brøt ut i kaldsvette. Familien hennes tok henne med til akuttmottaket i en tilstand av alvorlig blodtap fra fordøyelsessystemet.
Gastroskopi viste at pasienten hadde duodenalsår progresjon, dype magesår, blødning på grunn av feil bruk av syrenøytraliserende midler og ubehandlet primærårsak - Helicobacter pylori-infeksjon. Hvis pasienten ankommer sykehuset noen timer for sent, kan han få hemoragisk sjokk.
Etter nesten en uke med intensiv behandling var Huong endelig utenfor fare. Liggende på sykehussengen delte hun: « Jeg trodde AI var smart og snakket overbevisende som en ekte lege, så jeg trodde på det. Nå forstår jeg at AI ikke kan erstatte faktisk diagnose.»

Le Hoang Long, 27, en programmerer i Ho Chi Minh-byen, jobber ofte til klokken 02.00–03.00. Etter måneder med søvnløshet følte han seg stresset, sliten og hadde rask hjerterytme. Long ville ikke oppsøke en psykiater fordi han var «redd for å bli stemplet som syk», og betrodde seg til ChatGPT og ba om forslag til hvordan han kunne overvinne problemet.
AI rådet ham til å prøve «naturlige metoder» som å drikke urtete, ta melatonintilskudd, meditere før leggetid og «om nødvendig kombinere noen kinesiske beroligende midler». Long fulgte disse instruksjonene, og bestilte også et «importert urtesovepilleprodukt» hvis opprinnelse AI ikke kunne bekrefte.
Etter to uker kunne Long sove bedre, men begynte å få gulsott, tap av matlyst og tretthet. Han trodde det skyldtes «kroppsrensing» og fortsatte å drikke. Først da urinen ble mørk og huden ble dyp gul, dro han til sykehuset for en sjekk.
Testresultatene viste at leverenzymer økte 10 ganger mer enn normalt, diagnostiserte legen hepatitt på grunn av toksisitet fra ukjente medisinske ingredienser. Long måtte legges inn på sykehus for intravenøs væsketilførsel, motgift og kontinuerlig leverfunksjonsovervåking.
Etter hendelsen innrømmet Long: «KI hjelper meg med å lære kunnskap, men den vet ikke hvem jeg er eller hvor alvorlig sykdommen min er. Jeg har ofret helsen min på grunn av blind tro på teknologi.»
Ifølge MSc. Dr. Pham Ngoc Ha, avdeling for obstetrikk og gynekologi, Thanh Nhan sykehus, er det ikke kunstig intelligens (KI) som er det som er bekymringsfullt, men måten folk oppfatter og bruker den på. KI er i hovedsak bare et kraftig verktøy som hjelper oss med å syntetisere, organisere og tolke informasjon fra mange kilder, og hjelper oss å forstå problemer raskere og dypere.
AI har imidlertid ingen øyne å observere, ingen hender å berøre såret og ingen klinisk erfaring til å gjenkjenne avvik i pasientens blikk eller stemme.
Innen medisin er diagnose en flerlags reise. Legen begynner med å lytte til pasientens symptomer, observere manifestasjonene, undersøke ved å se, berøre, perkusere og lytte, og sammenligne resultatene av tester, bildediagnostikk og sykehistorie. Enhver behandlingsbeslutning er en kombinasjon av vitenskapelige data og erfaring akkumulert over tid. Ingen algoritme kan simulere dette fullt ut.
Enkelt sagt er AI som en skarp kniv. I hendene på en kokk er det et nyttig verktøy for å lage en delikat rett; men hvis den gis til et barn, er risikoen for å kutte seg i hånden uunngåelig. Problemet er ikke kniven, men brukeren.
Derfor er ikke AI feil, feilen er at folk forventer for mye av dens evner. Kunstig intelligens er ikke en lege, og kan ikke erstatte menneskelig observasjon, diagnose og vurdering. Fra et medisinsk perspektiv bør AI kun sees på som en gigantisk ordbok hvor brukere kan slå opp og referere til, men bør ikke ha absolutt tillit når det gjelder menneskers helse og liv.

Dr. Truong Huu Khanh, tidligere avdelingsleder for avdelingen for infeksjonssykdommer og nevrologi ved Barnesykehuset 1 (HCMC), kommenterte at innen medisin kan ikke kunstig intelligens erstatte den kliniske og menneskelige rollen. Kunstig intelligens kan støtte mange felt, men innen det medisinske feltet er erfaringen, følsomheten og hjertet til en lege ting som maskiner ikke kan kopiere.
Hver pasient må undersøkes direkte og grundig, ikke bare basert på noen få symptomer beskrevet på nettet for å stille en diagnose. Legen må observere, palpere, tappe, lytte, spørre nøye om pasientens sykehistorie og vurdere den generelle tilstanden for å kunne trekke en nøyaktig konklusjon.
Dr. Khanh mener at AI eller «internettleger» kan betraktes som en informasjonskilde som hjelper folk å forstå mer om helse og sykdomsforebygging. De kan imidlertid ikke erstatte ekte leger.
AI gir kun generell informasjon og kan ikke vurdere indre organskader, sykehistorie eller medikamentreaksjoner hos hver enkelt person. Selvdiagnose og behandling basert på «chatbot-forslag» utgjør mange risikoer, spesielt for kroniske sykdommer.
ChatGPT åpner for en ny tilnærming til helseopplæring , men bør sees på som en informasjonsassistent, ikke en beslutningstaker, fordi medisin fortsatt krever menneskelig innsikt og klinisk erfaring.
Kilde: https://baolangson.vn/tin-chatgpt-chua-benh-nhieu-nguoi-tre-dang-danh-cuoc-suc-khoe-5063604.html






Kommentar (0)