AI & Innovatie

AI-röntgenfoto’s misleiden zelfs ervaren radiologen

27 maart 2026 15:25 ⏱ 1 minuut leestijd Bron: gizmodo.com
deepfake röntgenfoto AI-röntgenfoto's misleiden zelfs ervaren radiologen

Onderzoekers van de Icahn School of Medicine in New York hebben een zorgwekkende ontdekking gedaan. AI-gegenereerde röntgenfoto’s zijn zo realistisch dat zelfs ervaren radiologen ze niet herkennen. Dit blijkt uit nieuw onderzoek, gepubliceerd in het tijdschrift Radiology.

In het onderzoek beoordeelden 17 radiologen uit zes landen in totaal 264 afbeeldingen. De helft was echt, de andere helft was nep. Radiologen die wisten dat er neppe foto’s tussen zaten, scoorden gemiddeld 75% nauwkeurigheid. Radiologen zonder die waarschuwing scoorden slechts 41%. Individuele scores liepen uiteen van 58% tot 92%. Leeftijd en ervaring maakten geen verschil. Opvallend genoeg presteerden musculoskeletale radiologen significant beter dan andere specialisten.

De risico’s zijn groot. Lead-onderzoeker Dr. Mickael Tordjman waarschuwt voor nep-bewijs in rechtszaken. Een verzonnen botbreuk kan bijvoorbeeld niet van een echte worden onderscheiden. Ook hackers vormen een gevaar. Zij kunnen neppe beelden in ziekenhuissystemen injecteren. Dit kan diagnoses manipuleren en klinische chaos veroorzaken. Zelfs ChatGPT-4o liet zich misleiden door afbeeldingen die het zelf had gemaakt.

De onderzoekers testen ook vier grote AI-modellen, waaronder ChatGPT-4o, ChatGPT-5, Google Gemini 2.5 Pro en Meta’s Llama 4 Maverick. De resultaten tonen aan dat deepfake medische beelden een serieuze bedreiging vormen. Zowel voor de patiëntveiligheid als voor de juridische wereld en cybersecurity.

Meer over AI & Innovatie