De oud-hoofdredacteur van NRC heeft citaten gebruikt die afkomstig waren uit AI-hallucinaties. Dit betekent dat een AI-systeem, zoals ChatGPT, informatie verzon die nooit echt bestond. De hoofdredacteur nam deze nep-citaten op in zijn werk zonder te controleren of ze klopten. Dit is een opvallend voorbeeld van hoe gevaarlijk AI-hallucinaties kunnen zijn, zelfs voor ervaren journalisten.
AI-hallucinaties ontstaan wanneer een AI onjuiste informatie verzint en die presenteert als de waarheid. Dit is een bekend probleem bij grote taalmodellen. Gebruikers vertrouwen soms blindelings op de uitkomsten van AI, zonder de informatie te verifiëren. Voor journalisten is broncontrole een basisvereiste. Toch ging het hier dus mis bij iemand met veel ervaring in de journalistiek.
Dit incident toont aan dat AI-tools grote risico’s meebrengen als je ze niet kritisch gebruikt. Journalisten, schrijvers en andere professionals moeten altijd controleren wat een AI produceert. Vertrouwen op AI zonder verificatie kan leiden tot fouten, reputatieschade en verkeerde informatie. Het geval van de NRC-hoofdredacteur is een waarschuwing voor iedereen die AI gebruikt in professionele contexten.