![]() |
| Parvise røntgenbilder, bestående av ekte bilder og bilder generert av GPT-4o på forskjellige steder på kroppen, viser at AI kan produsere svært realistiske medisinske bilder. (Kilde: RSNA) |
Den 24. mars ble en studie av en gruppe på 18 radiologer fra 12 medisinske institusjoner i 6 land (inkludert USA, Frankrike, Tyskland, Tyrkia, Storbritannia og De forente arabiske emirater), ledet av dr. Mickael Tordjman, en postdoktor ved Icahn School of Medicine, Mount Sinai (New York, USA), publisert i tidsskriftet Radiology tilhørende Radiological Society of North America (RSNA).
Forskning viser at røntgenbilder generert av kunstig intelligens (KI) nå er så realistiske at ikke bare mennesker, men selv avanserte KI-systemer har problemer med å identifisere dem.
Av de 264 røntgenbildene som ble brukt i studien, var halvparten ekte og halvparten var AI-genererte. De deltakende legene evaluerte to separate datasett, inkludert flere kroppsregioner og et spesialisert datasett for røntgen av brystkassen, generert ved hjelp av AI-modeller som ChatGPT og RoentGen.
Resultatene viste at leger kun identifiserte 41 % av bildene generert av kunstig intelligens korrekt uten forhåndsvarsel om eksistensen av falske bilder. Denne andelen økte til 75 % da de ble varslet. Nøyaktigheten varierte imidlertid betydelig mellom individer, fra 58 % til 92 %.
Ikke bare mennesker, men også multimodale AI-systemer står overfor lignende vanskeligheter. De fire modellene som ble testet oppnådde nøyaktigheter fra 57 % til 85 %. Det er verdt å merke seg at selv systemet som var involvert i å lage de falske bildene, ikke fullt ut kunne identifisere sine egne kreasjoner.
Et annet bemerkelsesverdig funn er at årelang erfaring ikke forbedret evnen til å oppdage artefaktlignende bilder. Ortopediske spesialister presterte imidlertid bedre enn de innen andre spesialiteter.
Ifølge forskerteamet har falske røntgenbilder ofte subtile visuelle trekk som altfor glatt beinstruktur, unormalt rett ryggrad, perfekt symmetriske lunger, jevnt fordelte blodårer og brudd som virker «for vakre», ofte bare på den ene siden av beinet.
Oppdagelsen reiser bekymring for at falske bilder kan bli brukt i søksmål eller satt inn i sykehussystemer for å manipulere diagnoser, forstyrre klinisk praksis og undergrave tilliten til digitale pasientjournaler.
For å redusere risikoer foreslår forskere å implementere sikkerhetstiltak som å legge inn usynlige vannmerker i bilder og bruke kryptografiske signaturer knyttet til fotografen for å bekrefte dataopprinnelsen.
Ifølge Dr. Tordjman kan det som er observert så langt bare være toppen av isfjellet. Neste steg i denne teknologien kan være å lage medisinske 3D-bilder som CT eller MR ved hjelp av AI. I den sammenhengen anses det å bygge treningsdatasett og deteksjonsverktøy nå som et kritisk krav for å beskytte nøyaktigheten av medisinske diagnoser.
Kilde: https://baoquocte.vn/bac-si-co-the-bi-ai-danh-lua-373657.html







Kommentar (0)