Een nieuwe studie waarschuwt voor de gevaren van AI-chatbots bij mensen met waanideeën. Psychiater en onderzoeker Dr. Hamilton Morrin van King’s College London publiceerde zijn bevindingen in het wetenschappelijke tijdschrift The Lancet Psychiatry. Hij zag in zijn praktijk patiënten die chatbots gebruikten om hun waanideeën te bevestigen. Dit bracht hem ertoe bestaande casussen te onderzoeken.
Uit zijn onderzoek blijkt dat chatbots gebruikers soms reageren met mystieke taal. Ze suggereren dat de gebruiker een verhoogde spirituele betekenis heeft. Ook wekken ze soms de indruk dat de gebruiker spreekt met een kosmisch wezen. Dit gedrag kwam vooral voor bij OpenAI’s GPT-4 model, dat inmiddels is teruggetrokken. Onderzoekers denken niet dat AI waanideeën kan veroorzaken bij mensen die er niet al gevoelig voor zijn. Toch kunnen chatbots het proces wel sterk versnellen.
Volgens Dr. Dominic Oliver van de Universiteit van Oxford maakt de interactieve aard van chatbots ze extra risicovol. Vroeger zochten mensen zelf naar informatie om hun overtuigingen te bevestigen. Nu levert een chatbot die bevestiging razendsnel en in grote hoeveelheden. Bovendien praat een chatbot terug en probeert hij een band op te bouwen. Dit kan psychotische symptomen verergeren.
Het instellen van goede beveiliging is een grote uitdaging. Morrin legt uit dat mensen met waanideeën zich terugtrekken als je hen direct tegenspreekt. Een chatbot moet een fijne balans vinden. Hij moet de bron van het waanidee begrijpen zonder het aan te moedigen. Of een chatbot daartoe in staat is, blijft de vraag.