A bíróság elutasítja az Anthropic fellebbezését, hogy szüneteltesse az ellátási lánc kockázati címkéjét, amelyet az Egyesült Államok kormánya adott

Dániel Szabó

A bíróság elutasítja az Anthropic fellebbezését, hogy szüneteltesse az ellátási lánc kockázati címkéjét, amelyet az Egyesült Államok kormánya adott

A vita akkor kezdődött, amikor az Anthropic megtagadta, hogy az Egyesült Államok kormánya korlátlanul hozzáférjen mesterségesintelligencia-csevegőbotjához, Claude-hoz.

Az Egyesült Államok bírósága elutasította az Anthropic mesterséges intelligenciával foglalkozó amerikai cég kérését, hogy óvja meg azt attól, hogy az ország kormánya ellátási lánc kockázatának minősítse. A címkét még soha nem alkalmazták amerikai cégen.

A Trump-kormányzat az AI vállalatot ellátási lánc kockázatának minősítette, és februárban elrendelte a szövetségi ügynököknek, hogy hagyják abba az Anthropic mesterséges intelligencia-asszisztense, Claude használatát, miután a vállalat megtagadta, hogy korlátlan katonai hozzáférést biztosítson modelljéhez.

Ez a címke megakadályozza, hogy a Pentagonnal együttműködő vállalkozók a vállalat mesterséges intelligencia modelljeit használják a védelmi minisztérium szerződéseiben.

A vitatott korlátozások közé tartozik a Claude halálos, autonóm fegyverekhez való felhasználása emberi felügyelet nélkül és az amerikaiak tömeges megfigyelése.

2025-ben az Anthropic 200 millió dolláros (171,5 millió eurós) szerződést írt alá a Pentagonnal, hogy technológiáját a hadsereg rendszereiben telepítse.

A megállapodást követően az AI chatbotot az Egyesült Államok kormányának minősített információs hálózataiban bevezették, a nemzeti nukleáris laboratóriumokban telepítették, és közvetlenül a védelmi minisztérium számára végzett hírszerzési elemzéseket.

A washingtoni Anthropic számára ez a visszaesés azután következett be, hogy a cég megnyert egy külön pert, amely ugyanazokra a kérdésekre összpontosított egy San Francisco-i bíróságon, amely arra kényszerítette Donald Trump elnök kormányát, hogy távolítsa el a címkét.

Az Anthropic a múlt hónapban nyújtotta be a két keresetet San Franciscóban és Washingtonban, és azzal vádolta a Trump-adminisztrációt, hogy „törvénytelen megtorlási kampányban” vett részt.

A védelmi minisztérium márciusi beadványában azt írta, hogy az Anthropic „megkísérelheti letiltani technológiáját vagy megelőző jelleggel megváltoztatni modellje viselkedését” a „hadiharc művelete” előtt vagy alatt, ha a vállalat „úgy érzi, hogy átlépik vállalati „vörös vonalait”.

A DC körzeti fellebbviteli bíróság testülete kijelentette, hogy nem lát okot a Trump-kormányzat intézkedéseinek visszavonására, mert „nem világos az Anthropic pénzügyi kárának pontos összege”. A fellebbviteli bíróság azonban májusban további bizonyítékokat fog meghallgatni ebben az ügyben.

„Hálásak vagyunk, hogy a bíróság elismerte, hogy ezeket a problémákat gyorsan meg kell oldani, és továbbra is biztosak vagyunk abban, hogy a bíróságok végül egyetértenek abban, hogy ezek az ellátási láncok megjelölései jogellenesek voltak” – mondta az Anthropic az Associated Pressnek adott nyilatkozatában.

Dániel Szabó

Dániel Szabó

Szabó Dániel vagyok, újságíró és elemző. A társadalmi változások és a politikai narratívák metszéspontjai érdekelnek, különösen közép-európai kontextusban. A 2022 Plusznál hiszek abban, hogy a jó kérdés néha fontosabb, mint a gyors válasz.