A Trump-adminisztráció példátlan lépése az Anthropic ellen az MI biztosítékai miatt arra kényszeríti a kormányzati vállalkozókat, hogy újragondolják a cég Claude chatbotjának használatát.
Az amerikai adminisztráció végrehajtja azt a fenyegetést, hogy az Anthropic mesterséges intelligenciával (AI) foglalkozó vállalatot az ellátási lánc kockázatának tekinti, egy példátlan lépéssel, amely arra kényszerítheti a többi kormányzati vállalkozót, hogy hagyják abba az AI chatbot, Claude használatát.
A Pentagon csütörtöki közleménye szerint „hivatalosan tájékoztatta az Anthropic vezetőségét arról, hogy a vállalatot és termékeit az ellátási lánc kockázatának tekintik, azonnali hatállyal”.
Úgy tűnt, hogy a döntés lezárta a további tárgyalások lehetőségét az Anthropiccal, közel egy héttel azután, hogy Donald Trump elnök és Pete Hegseth védelmi miniszter a nemzetbiztonság veszélyeztetésével vádolta meg a céget.
Trump és Hegseth múlt pénteken, az iráni háború előestéjén egy sor fenyegető büntetést jelentett be, miután az Anthropic vezérigazgatója, Dario Amodei nem volt hajlandó meghátrálni attól az aggodalomtól, hogy a cég termékeit amerikaiak tömeges megfigyelésére vagy autonóm fegyverek megfigyelésére használhatják fel.
Amodei csütörtöki közleményében kijelentette, hogy „nem hisszük, hogy ez az intézkedés jogilag megalapozott, és nem látunk más választást, mint bíróság előtt megtámadni”.
„Ez egy alapvető elvről szól: a katonaság minden törvényes célra használhatja a technológiát” – áll a Pentagon közleményében.
„A katonaság nem engedi, hogy az eladó beilleszkedjen a parancsnoki láncba egy kritikus képesség jogszerű használatának korlátozásával, és ezzel veszélybe sodorja harcosainkat” – tette hozzá.
Amodei ellenezte, hogy az Anthropic által a megfigyelés és az autonóm fegyverek korlátozására törekvő szűk kivételek „a magas szintű felhasználási területekre vonatkoznak, és nem az operatív döntéshozatalra”.
Hozzátette, az elmúlt napokban „termékeny beszélgetések” folytak a Pentagonnal arról, hogy továbbra is használhatja-e Claude-ot, vagy létrehozhat-e egy „zökkenőmentes átmenetet”, ha nem születik megállapodás.
Trump hat hónapot adott a hadseregnek a Claude fokozatos megszüntetésére, amely már széles körben beépült a katonai és nemzetbiztonsági platformokba. Amodei szerint prioritást élvez annak biztosítása, hogy a harcosokat ne „fosztják meg fontos eszközöktől a nagy harci műveletek közepette”.
Egyes katonai vállalkozók már megszakították kapcsolataikat az Anthropic-kal, a technológiai ipar feltörekvő sztárjával, amely Claude-ot ad el különféle vállalkozásoknak és kormányzati szerveknek.
A Lockheed Martin védelmi vállalat azt mondta, hogy „követni fogja az elnök és a hadügyminisztérium útmutatásait”, és más, nagy nyelvi modelleket kínáló szolgáltatókat keres.
„Minimális hatásokra számítunk, mivel a Lockheed Martin munkánk egyetlen részében sem függ egyetlen LLM-szállítótól sem” – mondta a vállalat.
Nem világos, hogy az Egyesült Államok Védelmi Minisztériuma hogyan értelmezi majd a kockázatmegjelölés hatályát. Amodei szerint az Anthropicnak a Pentagontól szerdán kapott értesítése azt mutatja, hogy az csak arra vonatkozik, hogy az ügyfelek Claude-ot katonai szerződéseik „közvetlen részeként” használják.
A Microsoft közölte, hogy ügyvédei tanulmányozták a szabályt, és a vállalat „továbbra is együttműködhet az Anthropiccal nem védelmi vonatkozású projekteken”.
A Pentagon kritikát kapott döntése miatt
A Pentagon azon döntését, hogy egy olyan szabályt alkalmaz, amely a külföldi ellenfelek által jelentett ellátási fenyegetésekre irányult, széles körű kritikát kapott. A szövetségi törvénykönyvek az ellátási lánc kockázatát úgy határozták meg, mint „kockázatot annak, hogy egy ellenfél szabotálhat, rosszindulatúan nem kívánt funkciót hoz létre, vagy más módon felforgathatja” a rendszert annak érdekében, hogy megzavarja, lealacsonyítsa vagy kémkedjen.
Kirsten Gillibrand amerikai szenátor, New York-i demokrata, a Szenátus Fegyveres Szolgálatok Bizottságának és a Szenátus Hírszerzési Bizottságának tagja „az ellenfél által irányított technológia kezelésére szolgáló eszköz veszélyes visszaélésének” nevezte.
„Ez a meggondolatlan cselekedet rövidlátó, önpusztító, és ajándék ellenfeleinknek” – fogalmazott csütörtöki írásbeli nyilatkozatában.
Neil Chilson, a Szövetségi Kereskedelmi Bizottság korábbi republikánus vezető technológusa, aki jelenleg az Abundance Institute mesterségesintelligencia-politikáját irányítja, úgy nyilatkozott, hogy a döntés úgy tűnik, „olyan hatalmas túlnyúlás, amely mind az Egyesült Államok mesterségesintelligencia-szektorát, mind a hadsereg azon képességét sértené, hogy a legjobb technológiát szerezze be az amerikai harcos számára”.
A nap folyamán korábbi védelmi és nemzetbiztonsági tisztviselők egy csoportja levelet küldött az amerikai törvényhozóknak, amelyben „komoly aggodalmát” fejezte ki a kijelölés miatt.
„E felhatalmazás alkalmazása egy hazai amerikai vállalattal szemben mélyen eltér a tervezett céltól, és veszélyes precedenst teremt” – áll a korábbi tisztviselők és szakpolitikai szakértők levelében, köztük Michael Hayden volt CIA-igazgatótól, valamint a légierő, a hadsereg és a haditengerészet nyugalmazott vezetőitől.
Hozzátették, hogy az ilyen megjelölés célja, hogy „megvédje az Egyesült Államokat a külföldi ellenfelek beszivárgásával szemben – a Pekingnek vagy Moszkvának tulajdonított vállalatoktól, nem pedig a törvényesség alatt átláthatóan működő amerikai innovátoroktól. Ezzel az eszközzel büntetni kell egy amerikai céget, amiért nem vonja le a tömeges belföldi megfigyelés és a teljesen autonóm fegyverek elleni védintézkedéseket, ami messze túlmutat ezen a vitán, ami messze túlmutat ezen a kategórián belüli következményekkel.”
Az Anthropic fellendülést lát a fogyasztói letöltések számában
Miközben az Anthropic elvesztette nagy partnerségeit a védelmi vállalkozókkal, az elmúlt héten megugrott a fogyasztói letöltések száma, mivel az emberek kiálltak az erkölcsi álláspontja mellett. A cég szerint ezen a héten minden nap több mint egymillióan iratkoztak fel a Claude-ra, ezzel megelőzve az OpenAI ChatGPT-jét és a Google Gemini-jét, mint a legnépszerűbb mesterségesintelligencia-alkalmazás több mint 20 országban az Apple App Store-ban.
A Pentagonnal folytatott vita tovább mélyítette az Anthropic és az OpenAI keserű rivalizálását, amely akkor kezdődött, amikor az OpenAI volt vezetői, köztük Amodei, 2021-ben elindították az Anthropicot.
Órákkal azután, hogy a Pentagon múlt pénteken megbüntette az Anthropicot, az OpenAI bejelentette, hogy az Anthropicot hatékonyan felváltja a ChatGPT-vel titkosított katonai környezetben.
Az OpenAI azt mondta, hogy hasonló védelmet keresett a hazai megfigyelés és a teljesen autonóm fegyverek ellen, de később módosítania kellett a megállapodásait, aminek következtében Sam Altman vezérigazgató azt mondta, nem kellett volna elsietnie egy „opportunistának és hanyagnak tűnő megállapodást”.
Amodei sajnálatát fejezte ki a saját szerepe miatt a „vállalat számára nehéz napon”, csütörtökön azt mondta, hogy „közvetlenül bocsánatot akar kérni” egy belső feljegyzésért, amelyet az Anthropic munkatársainak küldött, amely támadta az OpenAI viselkedését, és azt sugallta, hogy Anthropicot megbüntetik, amiért nem „diktátorszerű dicséretet” adott Trumpnak.






