AI

ArXiv verbant wetenschappers wegens AI-hallucinaties in papers

15 mei 2026 14:05 ⏱ 2 minuten leestijd Bron: tweakers.net
AI-hallucinaties ArXiv verbant wetenschappers wegens AI-hallucinaties in papers

ArXiv verbant wetenschappers voortaan een jaar als zij AI-hallucinaties in hun papers laten staan. Het platform maakt dit voor het eerst duidelijk als officiële sanctie. ArXiv is een grote open database voor wetenschappelijke artikelen, voornamelijk preprints. Jaarlijks laden duizenden onderzoekers wereldwijd hun werk op dit platform. Vakgenoten beoordelen de papers op dat moment nog niet. Dat maakt de kwaliteit van ingediende artikelen extra belangrijk.

Vorig jaar stelde ArXiv al beperkingen op aan het gebruik van grote taalmodellen, ofwel llm’s. Concrete straffen noemde het platform destijds echter nog niet. Nu is dat veranderd. Wie AI-hallucinaties in een paper laat staan en dit uploadt, riskeert een ban van twaalf maanden. Na die periode kunnen wetenschappers bovendien niet zomaar vrij uploaden. Zij moeten dan extra stappen doorlopen voordat ArXiv nieuwe papers accepteert.

Een AI-hallucinatie is een fout waarbij een taalmodel informatie verzint en die als feit presenteert. Denk aan verzonnen bronnen, onjuiste cijfers of niet-bestaande wetenschappelijke studies. Zulke fouten in papers zijn schadelijk voor de wetenschap. Andere onderzoekers kunnen de onjuiste informatie overnemen en verder verspreiden. Dit tast de betrouwbaarheid van de wetenschap als geheel aan.

Met deze strengere regels wil ArXiv de kwaliteit en integriteit van zijn platform waarborgen. Wetenschappers mogen AI-tools gebruiken, maar moeten hun werk grondig controleren voordat zij het indienen. Het platform stuurt hiermee een helder signaal naar de wetenschappelijke gemeenschap. Onverantwoord gebruik van AI heeft serieuze gevolgen. De maatregel past in een bredere trend waarbij wetenschappelijke platforms strenger toezien op AI-gegenereerde inhoud.

Meer over AI