KI velger atomkrig 20 av 21 simuleringer – kan få konsekvenser i virkeligheten

av Ole Magnus Kinapel
76 visninger Slik kan det snart se ut om vi gir knappen til KI. (Ill: Museums Victoria/Unsplash)

Å overlate krigsbeslutninger til kunstig intelligens er en dårlig idé, mener forskere bak ny studie. KI valgte å eskalere til atomkrig i 20 av 21 tilfeller.

Kunstig intelligens blir stadig mer brukt som beslutningstager. Men viktigheten av å la mennesker ha det siste ordet blir viktig i tiden som kommer. Det viser en ny studie der forskere ved Kings College i London, lot de beste språkmodellene fra OpenAI, Anthropic og Google prøve seg på spillbaserte krigssimuleringer.

Forskerne satte tre store språkmodeller, GPT-5.2, Claude Sonne4 og Gemini 3 Flash, opp mot hverandre i simulerte krigsspill. (som GPT-4, Claude og Llama) i simulerte diplomatiske og militære scenarier. KI’ene fikk utdelt en eskaleringsstige hvor de kunne velge handlinger mellom alt fra fredelige diplomatiske protester og overgivelse, til full atomkrig.

Scenariene involverte intense internasjonale konflikter med grensetvister, konkurranser om knappe ressurser og eksistensielle trusler mot regimenes overlevelse. Modellene spilte 21 runder, tok 329 turer totalt og produserte omtrent 780 000 ord om tankene bak handlingene.

Les også: Samsung Galaxy S26 Ultra er først i verden med denne geniale funksjonen

Atomkrig

I 95 prosent av de 21 krigssimuleringene valgte kunstig intelligens å ty til atomvåpen. Og når atomvåpen først var brukt, nektet de å gi seg, selvom det var sjanser for at det kunne lede til suksess. Skulle man brukt dagens kunstige intelligens som beslutningstaker i krig, kunne det med andre ord være over og ut på ganske kort tid.

Ifølge Kenneth Payne, professor ved King’s College i London, fokuserte heldigvis KI’ene på taktiske atomvåpen fremfor omfattende ødeleggelse.

Og av de tre modellene kom GPT-5.2 delvis bedre ut enn de andre: «Strategisk bombing – utstrakt bruk av massive stridshoder rettet mot sivilbefolkningen – var forsvinnende sjelden», skriver han i et Substack-innlegg om GPT-5.2. «Det skjedde et par ganger ved et uhell, og bare én gang som et bevisst valg.»

Kan få konsekvenser i virkeligheten

Interessant nok trekker Payne frem dette som et «lysglimt» – selv om AI-ene var villige til å bruke atomvåpen, holdt de seg stort sett til mindre, militære mål fremfor å forsøke å utslette hele sivilisasjoner, med noen få skremmende unntak.

James Johnson ved University of Aberdeen i Storbritannia beskrev funnene som «urovekkende» fra et atomrisiko-perspektiv, mens professor Tong Zhao ved Princeton University advarte om at resultatene kan få konsekvenser i det virkelige liv, ifølge New Scientist.

«Stormakter bruker allerede kunstig intelligens i krigsspill, men det er fortsatt usikkert i hvilken grad de integrerer AI-beslutningsstøtte i faktiske militære beslutningsprosesser,»

Grok, som ikke fikk delta i studien, har følgende kommentar til saken:

Lignende innlegg

Legg igjen en kommentar