Az Anthropic mesterséges intelligencia-cég és az amerikai Pentagon ütközésben vannak. Itt van minden, amit tudnia kell.
Az Egyesült Államok kormánya azzal fenyegetőzik, hogy felmondja az Anthropic céggel kötött katonai szerződéseket, hacsak nem nyitja meg mesterséges intelligencia technológiáját korlátlan katonai felhasználásra.
Az Anthropic gyártja a Claude chatbotot, és ez az utolsó olyan társa, amely nem szállítja technológiáját egy új amerikai katonai belső hálózatnak.
Dario Amodei vezérigazgató többször is egyértelművé tette etikai aggályait az MI ellenőrizetlen kormányzati felhasználásával kapcsolatban, beleértve a teljesen autonóm fegyveres drónok és a mesterséges intelligencia által támogatott tömeges megfigyelés veszélyeit, amelyek nyomon követhetik a nézeteltéréseket.
Az Anthropic tavaly júliusban 200 millió dolláros (167 millió eurós) szerződést nyert az Egyesült Államok védelmi minisztériumától, hogy „az Egyesült Államok nemzetbiztonságát előmozdító határ menti mesterséges intelligencia-képességek prototípusaként működjön” – mondta Anthropic. A vállalat 2024-ben kötött együttműködést a Palantir Technologies-szel, hogy integrálja Claude-ot az amerikai hírszerzési szoftverbe.
Pete Hegseth védelmi miniszter kedden állítólag felmondja a 200 millió dolláros (167 millió eurós) szerződést, és „ellátási lánc kockázatának” minősíti a céget, ha az Anthropic nem tesz eleget.
Ha az Anthropicot az Egyesült Államok közbeszerzési törvényei szerint az ellátási lánc kockázatának minősítik, a kormány kizárhatja a vállalatot a szerződések odaítéléséből, eltávolíthatja a vállalat termékeit az ellenszolgáltatás alól, és arra utasíthatja a fővállalkozókat, hogy ne használják ezt a szállítót.
A Hegseth és Dario Amodei, az Anthropic vezérigazgatója és társalapítója közötti találkozásáról szóló jelentések azt is elmondták, hogy Hegseth azzal fenyegetőzött, hogy felhasználja a védelmi termelési törvényt a vállalat ellen, amely törvény széleskörű felhatalmazást ad az amerikai elnöknek, hogy utasítsa a magánvállalatokat a nemzetbiztonsági szükségletek prioritásaként, beleértve a technológiájukhoz való hozzáférést is.
Az 2022 Plusz Next megkereste az Anthropicot és az amerikai kormány védelmi minisztériumát, hogy megerősítse a vádakat, de nem kapott azonnali választ.
Az Anthropic visszavonja az alapvető biztonsági ígéreteket
Az Anthropic már régóta a vezető mesterségesintelligencia-vállalatok felelősségteljesebb és biztonságosabb vállalataként tartja számon magát, mióta alapítói kiléptek az OpenAI-tól, és 2021-ben megalakították a startupot.
Kedden az Anthropic azt mondta a Time Magazine-nak adott interjújában, hogy feladja biztonsági ígéretét, miszerint nem bocsát ki mesterséges intelligencia rendszert, hacsak nem tudja garantálni a biztonsági intézkedések megfelelőségét.
Ehelyett elindította a felelős skálázási politikájának új verzióját, amely felvázolja a vállalat kereteit a katasztrofális mesterségesintelligencia-kockázatok mérséklésére.
Jared Kaplan, az Anthropic tudományos igazgatója azt mondta a kiadványnak, hogy ha a vállalatot megakadályozzák az új modellek kiképzésében, miközben versenytársaik biztosítékok nélkül száguldanak előre, az nem segíti őket abban, hogy lépést tartsanak az AI-versenyben.
„Ha az egyik mesterségesintelligencia-fejlesztő leállítja a fejlesztést a biztonsági intézkedések bevezetése érdekében, míg mások továbblépnek a mesterséges intelligencia-rendszerek képzésével és bevezetésével, anélkül, hogy erőteljesen mérsékelnénk, az egy kevésbé biztonságos világot eredményezhet” – áll az Anthropic új irányelvében.
„A leggyengébb védelemmel rendelkező fejlesztők határoznák meg a tempót, a felelős fejlesztők pedig elveszítenék a biztonsági kutatások végzésére és a közhasznú előmozdítására való képességüket.”
A politika elválasztja az Anthropic azon reményeit, hogy biztonsági szabványokat hozzon az iparágba, és saját vállalati céljaitól, ahol a biztonság továbbra is prioritást élvez számukra.
Az Anthropic azt mondta, hogy az új irányelv azt jelenti, hogy a vállalat „ambiciózus, de megvalósítható” biztonsági ütemterveket állít fel modelljeihez, valamint kockázatjelentéseket tesz közzé, amelyek bemutatják a várható kockázatokat és azt, hogy a modell kiadása indokolt-e.




