![]() |
| Gekoppelde röntgenfoto's, bestaande uit echte beelden en beelden gegenereerd door GPT-4o op verschillende locaties op het lichaam, tonen aan dat AI zeer realistische medische beelden kan produceren. (Bron: RSNA) |
Op 24 maart werd een onderzoek gepubliceerd in het tijdschrift Radiology van de Radiological Society of North America (RSNA), uitgevoerd door een groep van 18 radiologen van 12 medische instellingen in 6 landen (waaronder de VS, Frankrijk, Duitsland, Turkije, het VK en de VAE), onder leiding van Dr. Mickael Tordjman, postdoctoraal onderzoeker aan de Icahn School of Medicine, Mount Sinai (New York, VS).
Onderzoek toont aan dat röntgenfoto's die door kunstmatige intelligentie (AI) worden gegenereerd, nu zo realistisch zijn dat niet alleen mensen, maar zelfs geavanceerde AI-systemen moeite hebben om ze te herkennen.
Van de 264 röntgenfoto's die in het onderzoek werden gebruikt, was de helft echt en de andere helft door AI gegenereerd. De deelnemende artsen beoordeelden twee aparte datasets, waaronder meerdere lichaamsregio's en een gespecialiseerde dataset met röntgenfoto's van de borstkas, gegenereerd met behulp van AI-modellen zoals ChatGPT en RoentGen.
De resultaten toonden aan dat artsen, zonder voorafgaande kennisgeving van het bestaan van nepafbeeldingen, slechts 41% van de door AI gegenereerde afbeeldingen correct identificeerden. Na een waarschuwing steeg dit percentage naar 75%. De nauwkeurigheid varieerde echter aanzienlijk per individu, van 58% tot 92%.
Niet alleen mensen, maar ook multimodale AI-systemen ondervinden soortgelijke problemen. De vier geteste modellen behaalden nauwkeurigheidspercentages variërend van 57% tot 85%. Opvallend is dat zelfs het systeem dat de nepafbeeldingen creëerde, zijn eigen creaties niet volledig kon herkennen.
Een andere opmerkelijke bevinding is dat jarenlange ervaring het vermogen om artefacten in beelden te detecteren niet verbeterde. Orthopedische specialisten presteerden echter beter dan specialisten in andere vakgebieden.
Volgens het onderzoeksteam vertonen valse röntgenfoto's vaak subtiele visuele kenmerken, zoals een te gladde botstructuur, een abnormaal rechte wervelkolom, perfect symmetrische longen, gelijkmatig verdeelde bloedvaten en breuken die er "te mooi" uitzien en vaak slechts aan één kant van het bot zichtbaar zijn.
De ontdekking wekt de vrees dat vervalste afbeeldingen gebruikt zouden kunnen worden in rechtszaken of in ziekenhuissystemen ingevoegd zouden kunnen worden om diagnoses te manipuleren, de klinische praktijk te verstoren en het vertrouwen in digitale medische dossiers te ondermijnen.
Om risico's te beperken, stellen onderzoekers voor om beveiligingsmaatregelen te implementeren, zoals het inbedden van onzichtbare watermerken in afbeeldingen en het gebruik van cryptografische handtekeningen die aan de fotograaf zijn gekoppeld om de herkomst van de gegevens te verifiëren.
Volgens dr. Tordjman is wat tot nu toe is waargenomen mogelijk slechts het topje van de ijsberg. De volgende stap in deze technologie zou het creëren van 3D-medische beelden, vergelijkbaar met CT- of MRI-scans, met behulp van AI kunnen zijn. In die context wordt het bouwen van trainingsdatasets en detectietools nu als cruciaal beschouwd om de nauwkeurigheid van medische diagnoses te waarborgen.
Bron: https://baoquocte.vn/bac-si-co-the-bi-ai-danh-lua-373657.html







Reactie (0)