De Zuid-Afrikaanse regering heeft een voorstel voor AI-regulering ingetrokken. De reden? Het document bevatte fictieve bronnen. Deze zogenaamde ‘hallusinaties’ zijn een bekend probleem bij AI-tools zoals ChatGPT. Het lijkt erop dat de opstellers van het voorstel AI gebruikten zonder de bronnen te controleren.
Het voorstel was bedoeld om kunstmatige intelligentie in Zuid-Afrika te reguleren. Maar onderzoekers ontdekten dat meerdere aangehaalde bronnen simpelweg niet bestonden. Wetenschappelijke artikelen, rapporten en andere verwijzingen bleken verzonnen. Dit is een duidelijk voorbeeld van hoe gevaarlijk het is om AI-gegenereerde teksten blindelings te vertrouwen.
De Zuid-Afrikaanse overheid erkende de fout en trok het voorstel terug. Het incident zorgt wereldwijd voor ophef. Critici wijzen erop dat overheden extra voorzichtig moeten zijn bij het gebruik van AI voor officiële documenten. Betrouwbaarheid en controle zijn cruciaal, zeker als het gaat om wetgeving. Dit voorval toont aan dat AI-regulering zelf ook risico’s met zich meebrengt als AI onzorgvuldig wordt ingezet.