Az amerikai hadsereg az Anthropic Claude AI-ját használta, de miután az Anthropic megtagadta a tömeges megfigyelés és az autonóm fegyverek elleni védőkorlátok eltávolítását, a Pentagon felmondta a szerződést, és az OpenAI-hoz fordult.
A média jelentései, miszerint az amerikai hadsereg az Anthropic mesterséges intelligenciával (AI) működő Claude-ot használta a venezuelai és iráni vezetőket célzó műveletek során, újabb kérdéseket vet fel azzal kapcsolatban, hogy a mesterséges intelligencia (AI) milyen gyorsan integrálódik a hadviselésbe.
Az amerikai média arról számolt be, hogy Claude-ot egy januári hadművelet elősegítésére használták fel, amely Nicolás Maduro venezuelai vezető elfogásához vezetett. Később hasonló hírek láttak napvilágot, miszerint a chatbotot egy Irán elhunyt legfelsőbb vezetőjét, Ali Khamenei ajatollahot célzó hadművelet előkészítésekor is használták.
A szakértők szerint az incidensek ritka bepillantást engednek abba, hogy a fejlett AI-rendszerek már most is támogathatják az amerikai katonai tervezést és hírszerzési munkát.
„Nagyon meglepő volt látni ezeknek az eszközöknek a hirtelen bevezetését, különösen akkor, ha azt gondolom, hogy a nagyobb közösség nem gondolja, hogy készen állnak az említett bevetésre” – mondta Heidy Khlaaf, az AI Now Institute amerikai politikai agytrösztjének vezetője.
„Megkérdőjelezzük, hogy ezek az AI-modellek egyáltalán sikeresek lehetnek-e bármilyen katonai környezetben, mert mennyire hibásak” – mondta az 2022 Plusz Nextnek.
Khlaaf szerint a kutatók arra figyelmeztettek, hogy a nagy nyelvi modellek megbízhatatlan vagy helytelen eredményeket produkálhatnak, ami aggodalmat kelt azzal kapcsolatban, hogy hogyan teljesíthetnek nagy téttel rendelkező környezetben, például katonai műveletekben.
A jelentések szerint Claude használata abból is adódik, hogy a Trump-adminisztráció egy ambiciózus stratégiát sürget, hogy az amerikai hadsereget „elsődlegessé tegye a mesterséges intelligenciával”, azzal érvelve, hogy a technológia gyors átvételére van szükség ahhoz, hogy versenyezzen olyan riválisokkal, mint például Kína.
„Látjuk ezt a sürgősséget”
Az Egyesült Államok a 2010-es évek óta alkalmazza az automatizálási technológia különféle formáit a hadseregben, és ez több elnök, köztük Trump elődje, Barack Obama és Joe Biden fókuszterülete volt – mondták szakértők az 2022 Plusz Nextnek.
Elke Schwarz, a londoni Queen Mary Egyetem politikaelméleti professzora szerint a korai AI-modelleket logisztikára, karbantartásra vagy fordításra használták.
Trump második mandátuma felgyorsítja az olyan generatív mesterséges intelligencia (AI) modellek elfogadását, mint az OpenAI ChatGPT vagy az Anthropic Claude egy „AI-fegyverkezési versenyben”, az ország ellenfelei ellen – mondta Schwarz és Khlaaf is.
Amerika politikája „sürgős” érzést ad a mesterséges intelligencia fejlesztésére, mert ez egy „nagyon értékes technológia”, amely az országot riválisai előtt tartja – mondta Giorgos Verdi, az Európai Külkapcsolatok Tanácsának szakértői csoportjának szakértője.
A Department of War AI Acceleration stratégiája az amerikai katonai dominanciát kívánja biztosítani az AI integrációja előtt álló akadályok felszámolásával és olyan stratégiai projektekbe való befektetéssel, amelyek a hadsereget a riválisok előtt tartják.
„Az ötlet valójában az, hogy a mesterséges intelligencia mindenféle tartományba kerüljön, beleértve az ártalmatlanokat, de a károsabbakat is” – mondta Schwartz.
Megjegyezte, hogy a korábbi adminisztrációk óvatosabbak voltak a biztonsági korlátok létrehozásával kapcsolatban, amelyek szabályozzák, hogyan és mikor lehet ezeket a technológiákat használni.
Ennek az erőfeszítésnek a részeként a gyorsítási stratégia rendelkezik egy genai.mil nevű adatbázissal, amely lehetővé teszi a bürokraták számára, hogy hozzáférjenek a mesterséges intelligencia chatbotjaihoz, beleértve a Google Gemini-jét és az xAI Grok-ját.
Az adminisztráció 2025-ös költségvetése, az úgynevezett „Big Beautiful Bill”, több száz millió dollárt tartalmaz az AI-val kapcsolatos katonai projektek finanszírozására.
A dokumentum 650 millió dollárt (550 millió eurót) különít el katonai innovációra, ebből 145 dollárt (123 millió eurót) mesterséges intelligenciával hajtott drónellenes rendszerek fejlesztésére.
További 250 millió dollárt az AI ökoszisztéma fejlesztésére fordítanak, míg további 250 millió dollárt a kiberparancsnoki központ mesterséges intelligencia képességeinek bővítésére fordítanak. További 115 millió dollárt különítenek el a nukleáris nemzetbiztonsági missziók mesterséges intelligencia segítségével történő felgyorsítására.
Az amerikai hadsereg még mindig „próbafázisban” van az AI chatbotokkal
Az „átláthatatlanság eredendő hiánya” miatt nehéz meghatározni, hogy az Egyesült Államok kormánya mennyire halad előre a terveiben – mondta Schwarz. „Eltérően egy bizonyos lőszertől vagy egy speciális fizikai fegyverrendszertől, nem igazán látod, hogy mit használnak” – mondta. „Minden egy felületen történik, és nagyon is a láthatatlanság zónájában.”
Schwarz úgy véli, hogy az amerikai hadsereg „próbafázisban” van, ahol különböző mesterséges intelligencia-cégekkel kísérletezik, hogy megértsék, mire képesek, és hol vannak a korlátaik.
Az Anthropic 200 millió dolláros együttműködése az amerikai hadsereggel egy kétéves prototípusra irányul, amely előmozdítja a nemzetbiztonságot – állítja a vállalat. Együttműködik a részleggel, hogy „előre jelezze és mérsékelje a mesterséges intelligencia lehetséges ellenséges felhasználásait”, és azonosítsa a technológia alkalmazásának kockázatait a „védelmi vállalaton belül”.
Schwartz szerint ez arra utal, hogy a rendszereket élő környezetben tesztelik, ami szerinte etikai aggályokat vet fel.
„Ez egy szörnyű gyakorlat olyan dologhoz, ami emberi életekkel jár” – mondta.
Verdi azonban úgy véli, hogy a Claude-hoz hasonló rendszereket venezuelai és iráni környezetben „hétköznapibb feladatokra”, például műholdképek gyűjtésére vagy elemzésére használták.
„Előfordulhat, hogy az ember nem tudja elemezni a beérkező intelligencia minden egyes darabját. Ez az, amire az AI-rendszer gyorsabban lesz képes” – mondta. „Ezután az emberek értelmezik az AI-rendszer kimeneteit, majd cselekednek.”
Szakértők arra figyelmeztetnek, hogy az AI-meghajtású autonóm fegyverek iránti érdeklődés fokozódik
A kutatók attól tartanak, hogy az AI növekvő szerepe az Egyesült Államok katonai tervezésében és döntéshozatalában végül autonóm fegyverek kifejlesztéséhez vezethet. )
„Úgy gondolom, határozottan érdekelt, hogy legalább lehetőség legyen teljesen autonóm mesterséges intelligencia-kompatibilis fegyverek kifejlesztésére és ezek felhasználására” – mondta Verdi.
Az autonóm fegyverek bármilyen fegyverek lehetnek, amelyek képesek azonosítani, kiválasztani és megütni a célpontot anélkül, hogy embert bevonnának a végső döntésbe, mondta Khlaaf.
„Tehát ahelyett, hogy egy nagy nyelvi modell ajánlását fogadná el, és egy ember cselekedne rajta, vagy nem döntene, teljesen automatizálnák” – mondta.
Az egyik fő érv az ilyen rendszerek fejlesztése mellett az a félelem, hogy az Egyesült Államok lemaradhat, ha egy rivális előbb építi meg őket, mondta Verdi.
Verdi és Khlaaf szerint azonban nincs olyan nyilvános információ, amely arra utalna, hogy Kína bármilyen módon integrálta volna a mesterséges intelligenciát a hadseregébe.
A kínaiak „nagyon aggódnak amiatt, hogy ellenőrzés alatt tartsák ezt a technológiát” – tette hozzá Verdi.
Más amerikai ellenfelek, például Oroszország, Irán vagy Észak-Korea mesterséges intelligencia képességei „még kevésbé kifinomultak” – tette hozzá Verdi, így még kevésbé valószínű, hogy ezekben az országokban MI autonóm fegyverek lennének.
Verdi szerint a teljesen autonóm fegyverek mesterséges intelligencia segítségével történő létrehozása a konfliktus eszkalációjához is vezethet.
A londoni King’s College nemrégiben végzett, nyomtatás előtti tanulmánya szerint a mesterséges intelligencia chatbotjai szinte mindig úgy döntöttek, hogy nukleáris fegyverekkel fenyegetnek egy háborús játék forgatókönyvében.
A Pentagon „kihívó átmenettel” néz szembe Claude-tól távol
Verdi szerint elvárnunk kell az Egyesült Államoktól, hogy továbbra is Claude-ot vagy egy másik mesterséges intelligencia chatbotot használjon működésében, mert mind Venezuela, mind Irán „látszólag nagyon hatékonyan” teljesítette a küldetés céljait.
E küldetések vélt sikere azt a kockázatot hordozza magában, hogy az Egyesült Államok még több védőkorlátot – például az emberi felügyeletet – le akar majd vetni a technológia még hatékonyabbá tétele érdekében – tette hozzá. A hadügyminisztérium számára az lesz a kihívás, hogy olyan modellt találjanak, amely Claude-hoz hasonlóan működik – mondta Verdi.
Pete Hegseth, az Egyesült Államok hadügyminiszterének nyilatkozata szerint a kormány az elkövetkező hat hónapban fokozatosan megszünteti ezt, mivel a vállalat megtagadta, hogy a katonaság korlátlanul hozzáférjen technológiájához, amelyet az Anthropic állításai szerint tömeges megfigyelésre vagy autonóm fegyverfejlesztésre használhatnak fel.
Az Anthropic azt mondta, hogy Claude-ot az Egyesült Államok kormányának titkos információs hálózataira telepítették, a nemzeti nukleáris laboratóriumokban telepítették, és közvetlenül a hadügyminisztérium számára végez hírszerzési elemzéseket.
Eközben a hadügyminisztérium szerződést írt alá az OpenAI-val a „fejlett AI-rendszerek minősített környezetekbe” integrálására, néhány órával az Anthropic megállapodás felszámolása után.
„Úgy gondolom, hogy a hadügyminisztérium egy kihívásokkal teli átállás előtt áll majd, ugyanakkor ez nem lehetetlen feladat” – mondta Claude helyett egy új mesterséges intelligencia-rendszer.
A Claude által összegyűjtött és szolgáltatott intelligencia valószínűleg az osztálynál marad, és a következő szolgáltató használhatja majd fel.






