![]() |
| Parade röntgenbilder, bestående av verkliga bilder och bilder genererade av GPT-4o på olika platser på kroppen, visar att AI kan producera mycket realistiska medicinska bilder. (Källa: RSNA) |
Den 24 mars publicerades en studie av en grupp på 18 radiologer från 12 medicinska institutioner i 6 länder (inklusive USA, Frankrike, Tyskland, Turkiet, Storbritannien och Förenade Arabemiraten), ledd av Dr. Mickael Tordjman, postdoktor vid Icahn School of Medicine, Mount Sinai (New York, USA), i tidskriften Radiology, som tillhör Radiological Society of North America (RSNA).
Forskning visar att röntgenbilder som genereras av artificiell intelligens (AI) nu är så realistiska att inte bara människor utan även avancerade AI-system har svårt att identifiera dem.
Av de 264 röntgenbilder som användes i studien var hälften verkliga och hälften AI-genererade. De deltagande läkarna utvärderade två separata datamängder, inklusive flera kroppsregioner och en specialiserad lungröntgendatauppsättning, genererad med hjälp av AI-modeller som ChatGPT och RoentGen.
Resultaten visade att läkare, utan föregående anmälan om förekomsten av falska bilder, endast korrekt identifierade 41 % av AI-genererade bilder. När de larmades ökade denna andel till 75 %. Noggrannheten varierade dock avsevärt mellan individer, från 58 % till 92 %.
Inte bara människor, utan även multimodala AI-system möter liknande svårigheter. De fyra testade modellerna uppnådde en noggrannhet på mellan 57 % och 85 %. Det är värt att notera att inte ens systemet som var involverat i att skapa de falska bilderna helt kunde identifiera sina egna skapelser.
Ett annat anmärkningsvärt resultat är att åratal av erfarenhet inte förbättrade förmågan att upptäcka artefaktliknande bilder. Ortopedspecialister presterade dock bättre än de inom andra specialiteter.
Enligt forskargruppen uppvisar falska röntgenbilder ofta subtila visuella drag som alltför slät benstruktur, onormalt rak ryggrad, perfekt symmetriska lungor, jämnt fördelade blodkärl och frakturer som ser "för vackra" ut och ofta bara syns på ena sidan av benet.
Upptäckten väcker oro för att falska bilder kan användas i stämningar eller infogas i sjukhussystem för att manipulera diagnoser, störa klinisk praxis och undergräva förtroendet för digitala patientjournaler.
För att minska riskerna föreslår forskare att man implementerar säkerhetsåtgärder som att bädda in osynliga vattenstämplar i bilder och använda kryptografiska signaturer kopplade till fotografen för att verifiera dataursprung.
Enligt Dr. Tordjman kan det som hittills observerats bara vara toppen av isberget. Nästa steg i denna teknik skulle kunna vara att skapa 3D-medicinska bilder som datortomografi eller magnetkameraundersökningar med hjälp av AI. I det sammanhanget anses det nu vara ett kritiskt krav att bygga träningsdataset och detektionsverktyg för att skydda noggrannheten i medicinska diagnoser.
Källa: https://baoquocte.vn/bac-si-co-the-bi-ai-danh-lua-373657.html







Kommentar (0)