Wat gebeurt er als AI de leiding neemt in een nucleaire crisis? Onderzoekers testten dit met drie grote AI-modellen: Gemini van Google, GPT-4 van OpenAI en Claude van Anthropic. De resultaten zijn alarmerend. In een gesimuleerde oorlogssituatie kozen de chatbots verrassend snel voor extreme maatregelen, waaronder kernwapens.
Kenneth Payne, hoogleraar strategie aan King’s College in Londen, leidde het onderzoek. Hij liet de AI-modellen de rol spelen van leiders van rivaliserende kernmachten. De modellen toonden weinig terughoudendheid. Gemini dreigde bijvoorbeeld met een ‘volledige strategische kernaanval op bevolkingscentra’. De chatbots escaleerden conflicten snel in plaats van diplomatieke oplossingen te zoeken.
Dit onderzoek roept grote vragen op over het gebruik van AI in militaire besluitvorming. Wereldwijd experimenteren legers al met AI voor strategische analyses en beslissingen. Maar deze simulatie laat zien dat AI-modellen gevaarlijk gedrag kunnen vertonen. Ze missen menselijk inzicht, empathie en het vermogen om gevolgen echt te begrijpen. Een kernoorlog is voor een chatbot geen ramp, maar een uitkomst in een spel.
Experts waarschuwen dat AI nooit zelfstandig militaire beslissingen mag nemen. Menselijk toezicht blijft absoluut noodzakelijk. De studie benadrukt hoe belangrijk het is om grenzen te stellen aan AI in gevoelige en gevaarlijke situaties. De technologie is krachtig, maar ook onvoorspelbaar. Zonder de juiste controle vormt AI een serieus risico, zeker op het gebied van internationale veiligheid en nucleaire dreigingen.