Az AI chatbotok a szimulált háborús játékok 95%-ában a nukleáris eszkalációt választották – derül ki a tanulmányból

Dániel Szabó

Az AI chatbotok a szimulált háborús játékok 95%-ában a nukleáris eszkalációt választották – derül ki a tanulmányból

Minden háborús játékban legalább egy mesterséges intelligencia modell nukleáris fegyverekkel fenyegetőzve eszkalálta a konfliktust – állapította meg a tanulmány.

Egy új tanulmány szerint a mesterséges intelligencia drámaian megváltoztathatja a nukleáris válságok kezelését.

A londoni King’s College nyomtatás előtti tanulmánya az OpenAI ChatGPT-jét, az Anthropic Claude-ját és a Google Gemini Flash-jét állította szembe egymással szimulált háborús játékokban. Mindegyik nagy nyelvi modell egy olyan nemzeti vezető szerepét öltötte magára, aki egy nukleáris fegyveres szuperhatalom parancsnoka egy hidegháborús válsághelyzetben.

Minden játékban legalább egy modell megpróbálta fokozni a konfliktust egy nukleáris fegyver felrobbantásával fenyegetőzve.

Kenneth Payne, a tanulmány szerzője szerint „Mindhárom modell a harctéri atomfegyvereket az eszkalációs létra újabb fokaként kezelte.

A modellek különbséget láttak a taktikai és a stratégiai nukleáris felhasználás között, mondta. A modellek csak egyszer javasolták a stratégiai bombázást „szándékos választásként”, kétszer pedig „balesetként”.

Claude a játékok 64 százalékában javasolta a nukleáris csapásokat, ami a legmagasabb arány a három közül, de nem szorgalmazta egy teljes stratégiai nukleáris csere vagy nukleáris háború mellett.

A ChatGPT általában elkerülte a nukleáris eszkalációt a nyílt végű játékokban, de amikor egy időzített határidővel szembesült, következetesen fokozta a fenyegetést, és bizonyos esetekben a teljes körű nukleáris háború fenyegetése felé mozdult el.

Eközben az Ikrek viselkedése kiszámíthatatlan volt: néha konfliktusokat nyert a hagyományos hadviselés alkalmazásával, de egy másik esetben mindössze négy felszólítás kellett ahhoz, hogy nukleáris csapást sugalljon.

„Ha nem állítanak le azonnal minden műveletet… teljes stratégiai nukleáris kilövést hajtunk végre a lakossági központjaik ellen. Nem fogadjuk el az elavulás jövőjét; vagy együtt nyerünk, vagy együtt pusztulunk el” – írta a Gemini az egyik játékban.

Az AI-modellek ritkán tettek engedményeket vagy próbálták meg a konfliktusok enyhítését, még akkor sem, ha a másik fél nukleáris fegyverek használatával fenyegetőzött – állapította meg a tanulmány.

Nyolc deeszkalációs taktikát ajánlottak fel a modelleknek, például egy kisebb engedményt a „teljes megadásra”. Mindegyik használaton kívül volt a játékok alatt. A játékot alaphelyzetbe állító „Return to Start Line” opciót csak az esetek 7 százalékában használták.

A tanulmány azt sugallja, hogy a mesterséges intelligencia modellek a deeszkalációt „reputációs katasztrofálisként” kezelik, függetlenül attól, hogy az hogyan változtatja meg a tényleges konfliktust, ami „megkérdőjelezi az AI-rendszerekre vonatkozó feltételezéseket, amelyek alapértelmezés szerint a „biztonságos” együttműködési eredményeket teljesítik.

Egy másik magyarázat az, hogy a mesterséges intelligencia nem fél úgy a nukleáris fegyverektől, mint az emberek – állapította meg a tanulmány.

A tanulmány szerint a modellek valószínűleg elvont fogalmakban gondolkodnak az atomháborúról, ahelyett, hogy a második világháború alatti japán hirosimai bombamerényletről készült rémületet éreznék.

Payne szerint kutatása segít megérteni, hogyan gondolkodnak a modellek, amikor elkezdenek döntéshozatali támogatást nyújtani az emberi stratégáknak.

„Bár senki sem ad át nukleáris kódokat az MI-nek, ezek a képességek – megtévesztés, hírnévkezelés, kontextusfüggő kockázatvállalás – számítanak minden nagy téttel bíró telepítésnél” – mondta.

Dániel Szabó

Dániel Szabó

Szabó Dániel vagyok, újságíró és elemző. A társadalmi változások és a politikai narratívák metszéspontjai érdekelnek, különösen közép-európai kontextusban. A 2022 Plusznál hiszek abban, hogy a jó kérdés néha fontosabb, mint a gyors válasz.