Canada’s immigratiedienst weigerde een aanvraag op basis van verzonnen informatie. Een AI-assistent beschreef de vrouw verkeerd. Ze werkt als gezondheidsonderzoeker met een Ph.D. in immunologie. Toch schreef de AI dat ze circuits bekabelt en robots programmeert. Dit leidde tot een afwijzing van haar verblijfsvergunning.
De zaak is opvallend. Het is namelijk de eerste keer dat Canada’s immigratiedienst openlijk toegaf generatieve AI te gebruiken bij het verwerken van aanvragen. De dienst benadrukt dat een menselijke medewerker de uiteindelijke beslissing nam. Ook stelt de dienst dat alle AI-inhoud door een medewerker werd gecontroleerd. Maar de advocaat van de vrouw begrijpt niet hoe dit kon gebeuren. Hij zegt dat de AI de functiebeschrijving volledig heeft verzonnen. Zo’n fout heet een ‘AI-hallucinatie’.
Deze situatie staat in schril contrast met de nieuwe AI-strategie van de immigratiedienst. Die strategie ziet AI juist als een middel om efficiënter te werken. De dienst wil AI gebruiken voor onderzoek, samenvatting en analyse van aanvragen. Maar deze zaak laat zien dat er nog grote risico’s zijn. Een fout van een AI kan ingrijpende gevolgen hebben voor echte mensen. De advocaat eist nu uitleg en vraagt zich af wat de medewerker precies zag op het scherm.