„Ő (Trump elnök) arra próbálja megtanítani az AI-ipart, hogy a többiekhez hasonlóan beálljanak a sorba” – mondta Ben Goertzel informatikus az 2022 Plusz-nak.
Az Egyesült Államok kormányának az Anthropic betiltása büntetésnek tűnik, miután a cég nyilvános vitát folytatott a Pentagonnal, amiért megtagadta Claude AI modelljének korlátlan katonai használatát.
Az Anthropic kedden benyújtotta keresetét egy San Francisco-i szövetségi bíróság előtt, és tiltást kért az amerikai kormány azon döntése ellen, hogy a feketelistára helyezte a nemzetbiztonsági kockázatot.
Rita F. Lin kerületi bíró a meghallgatás elején kijelentette, hogy „az Anthropic megbénítására tett kísérletnek tűnik”, hozzátéve, hogy aggasztja, hogy a kormány megbünteti az Anthropicot, amiért nyíltan kritizálja a kormány álláspontját – jelentette az amerikai média.
Donald Trump amerikai elnök és Pete Hegseth védelmi miniszter februárban nyilvánosan bejelentette, hogy megszakítja kapcsolatait a mesterséges intelligencia (AI) vállalattal, miután megtagadta Claude AI modelljének korlátlan katonai használatát. A vitatott korlátozások közé tartozik a halálos, autonóm fegyverek emberi felügyelet nélküli használata és az amerikaiak tömeges megfigyelése.
Válaszul az Egyesült Államok kormánya az Anthropicot „nemzetbiztonsági kockázatnak” minősítette, és megparancsolta a szövetségi ügynököknek, hogy hagyják abba a Claude használatát.
Március 9-én az Anthropic két pert indított a kormány ellen az ellátási lánc kockázatának minősítése miatt. Az egyik az ellátási lánc kockázatának újragondolása, a másik pedig azt állítja, hogy a Trump-adminisztráció megsértette a vállalat első módosításának beszédjogát.
Lin azt mondta a tárgyalóteremben, hogy a Pentagonnak joga van dönteni az általa használt mesterségesintelligencia-termékekről, de megkérdőjelezte, hogy a kormány megsértette-e a törvényt azzal, hogy megtiltotta az ügynökségeknek az Anthropic használatát, és amikor Hegseth bejelentette, hogy a Pentagonnal kapcsolatot keresőknek meg kell szakítaniuk kapcsolataikat az Anthropic-szal, számolt be az NPR.
A kormány ügyvédje szerint a Pentagon intézkedései nem voltak megtorló jellegűek, és az Anthropic mesterséges intelligencia modelljének felhasználási módján alapulnak, nem pedig a vállalat azon döntésén, hogy nyilvánosságra hozza a nézeteltérést.
Az NPR arról is beszámolt, hogy az Anthropic veszélybe kerülhet a jövőben, mert a nemzetbiztonságot veszélyeztető módon frissítheti Claude AI modelljét.
Az 2022 Plusz Next megkereste az Anthropicot, hogy észrevételt tegyen, de a közzététel időpontjában nem kapott választ.
Mit jelentene az ítélet az AI-cégek számára
Az ellátási lánc kockázata általában csak a külföldi vállalatokra vonatkozik.
„Nem tűnik helyénvalónak ezt a megjelölést itt alkalmazni” – mondta Ben Goertzel, a SingularityNet és a The Artificial Superintelligence Alliance vezérigazgatója, informatikus.
„Ez azt jelenti, hogy a végrehajtó hatalom egyszerűen újraértelmezheti a szavakat és a törvényeket, ahogyan akarják” – mondta az 2022 Plusz Nextnek.
Goertzel hozzátette, hogy ha az ellátási lánc kockázatmegjelölésének legerősebb változatát alkalmaznák, és ez azt jelentené, hogy az Anthropic nem tud szoftvert eladni egyetlen olyan vállalatnak sem, amely bármilyen kormányzati tevékenységet folytat, az „rendkívül rossz lenne a vállalat számára”.
Azt mondta, hogy az Antropic túléli anyagilag, mivel sokkal több üzlet van a kormányzati projekteken kívül, és „nagy lendületet kapnának az ország azon százalékai között, akik nem nagy rajongója Donald Trumpnak”.
De azt mondta, hogy az ellátási lánc kockázati megjelölésének fenntartása azonnali következményekkel jár, hogy „elveszítene más vállalatokat attól, hogy kiálljanak a Trump-adminisztrációval szemben”.
„Ő (Trump elnök) arra próbálja megtanítani az AI-ipart, hogy mindenki máshoz hasonlóan alkalmazkodjon” – mondta Goertzel.
Lin bíró azt mondta, hogy a következő napokban várhatóan döntést hoz arról, hogy átmenetileg szüneteltesse-e a kormány tilalmát, amíg a bíróság folytatja a szélesebb körű ügy vizsgálatát.






