A hadügyminisztérium az Anthropicot „ellátási lánc kockázatának” nevezte, ami azt jelenti, hogy kizárhatja őket a szerződésekre való licitálásból, és megtagadhatja más cégektől, hogy együttműködjenek velük.
A Microsoft, a nyugalmazott katonai vezetők és a mesterséges intelligencia (AI) agytrösztök támogatják az Anthropic-ot abban az ügyben, hogy töröljék a Trump-adminisztráció által a céget az „ellátási lánc kockázatának” minősítését.
Az Egyesült Államok Hadügyminisztériuma (DOW) intézkedései „kényszerítik a kormányzati vállalkozókat homályos és rosszul meghatározott utasítások betartására, amelyeket korábban soha nem alkalmaztak nyilvánosan egy amerikai vállalat ellen” – áll a Microsoft jogi tájékoztatójában.
A Microsoft jogi bejelentése szerint az ellátási lánc kockázati megjelölése „súlyos gazdasági hatásokkal járhat, amelyek nem szolgálják a közérdeket”, és arra kérte a bírót, hogy rendelje el a megjelölés ideiglenes visszavonását.
A beadványok azt követik, hogy az Anthropic a múlt héten jogi kifogást emelt az Egyesült Államok hadügyminisztériuma ellen.
Az Anthropic címkéje az ellátási lánc kockázataként azt jelenti, hogy a kormány kizárhatja a vállalatot a szerződések odaítéléséből, eltávolíthatja termékeit az ellenszolgáltatás alól, és megakadályozhatja, hogy a közvetlen fővállalkozók igénybe vegyék a beszállítót.
Az Anthropic egészen a közelmúltig volt az egyetlen, amelyet minősített katonai hálózatokban való használatra engedélyeztek. A mesterséges intelligencia csevegőbotját az Egyesült Államok kormányának titkos információs hálózataiban terjesztették, a nemzeti nukleáris laboratóriumokban telepítették, és hírszerzési elemzéseket végzett a hadügyminisztérium számára.
Kik jöttek még az Anthropic támogatására?
Amerikai katonai tisztviselők, Big Tech cégek és mesterséges intelligencia szervezetek több közös fájlt indítottak az Anthropic támogatására.
Pete Hegseth amerikai védelmi miniszter Anthropic elleni magatartása „fenyegeti a jogállamiság elveit, amelyek régóta erősítették hadseregünket” – áll az aktában, amelyet Michael Hayden, az Egyesült Államok Központi Hírszerző Ügynökségének (CIA) volt igazgatója is támogat.
Azt is állítják, hogy Hegseth cselekedetei a kormányzati hatalommal való visszaélésnek minősülnek „egy magáncég megtorlása érdekében, amely nem tetszett a vezetésnek”.
A volt katonai tisztviselők beadványa arra figyelmeztet, hogy a katonai platformokba széles körben beágyazott technológia célba vételének „hirtelen bizonytalansága” megzavarhatja a tervezést, és veszélybe sodorhatja a katonákat a folyamatban lévő műveletek, például az iráni háború során.
A korábban az OpenAI-nál és a Google DeepMindnél dolgozó 37 mesterségesintelligencia-mérnök nevében benyújtott másik beadvány a DOW tevékenységét „nem megfelelő és önkényes erőfelhasználásnak nevezte, ami komoly következményekkel jár iparágunkra nézve”.
„Ha megengedik, az egyik vezető amerikai mesterséges intelligencia-vállalat megbüntetésére irányuló erőfeszítés kétségtelenül hatással lesz az Egyesült Államok ipari és tudományos versenyképességére a mesterséges intelligencia területén és azon túl is” – áll a közleményben. „És ez lehűti a nyitott tanácskozást a mi területünkön a mai AI-rendszerek kockázatairól és előnyeiről.”
Egy külön beadvány szerint nem nehéz elképzelni egy olyan világot, amelyben a kormány hatékonyan ellenőrzi azt, amit minden amerikai tesz és mond, ha a kormány képes diktálni az Anthropic politikáját.
Az olyan csoportok, mint az Electronic Frontier Foundation és a Cato Institute közös beadványa szerint a kormány lépései sértik az ország első kiegészítését, az alkotmánynak azt a részét, amely előírja a szólásszabadságot.
„A kormány lépései… veszélyeztetik demokráciánk vitalitását és függetlenségét” – áll a beadványban.
Hogyan kezdődött a konfliktus?
Az Anthropic és az amerikai hadsereg közötti probléma akkor kezdődött, amikor a vállalat megtagadta, hogy korlátlan hozzáférést biztosítson a hadseregnek az AI chatbotjához, a Claude-hoz. A kormány 48 órát adott az Anthropicnak, hogy hozzáférést biztosítson hozzá, különben szankciókkal kell szembenéznie.
Az Anthropic vezérigazgatója, Dario Amodei elmondta, hogy a vállalat két vörös vonalat adott a hadseregnek: hogy technológiáját ne használják tömeges belföldi megfigyelésre, vagy hogy teljesen autonóm fegyverekbe ágyazzák be.
Amodei február 26-i nyilatkozatában kijelentette, hogy „jó lelkiismerettel nem tud eleget tenni a Pentagon azon kérésének”, hogy korlátlanul hozzáférjen a vállalat mesterséges intelligencia rendszereihez.
„Az esetek egy szűk körében úgy gondoljuk, hogy a mesterséges intelligencia alááshatja, nem pedig megvédheti a demokratikus értékeket” – írta. „Egyes felhasználási módok egyszerűen kívül esnek azon a határokon, amelyeket a mai technológia biztonságosan és megbízhatóan képes elvégezni” – mondta.
A Microsoft bírósági beadványa alátámasztotta az Anthropic vörös vonalait, mondván, hogy „az amerikai mesterséges intelligencia nem használható belföldi tömeges megfigyelésre vagy háború indítására emberi irányítás nélkül”, megjegyezve, hogy álláspontjuk „konzisztens a törvénnyel”.
Hegseth közleménye szerint Claude-ot a következő hat hónapban fokozatosan kivonják a katonai műveletekből.
Amodei nyilatkozatában kijelentette, hogy a hadügyminisztérium megválaszthatja, hogy kivel dolgozzon olyan szerződéseken, amelyek jobban illeszkednek elképzeléseihez, de „tekintve az Anthropic technológiájának jelentős értékét fegyveres erőink számára, reméljük, hogy átgondolják ezt”.






