Az Egyesült Államok mesterséges intelligencia-szabványi és innovációs központja értékelni fogja a kiberbiztonsági, biológiai biztonsági és vegyi fegyverekkel kapcsolatos kockázatok modelljeit, mielőtt azokat nyilvánosságra hozzák.
Az Egyesült Államok kormánya most új mesterséges intelligencia (AI) eszközöket fog tesztelni, mielőtt azok nyilvánosságra kerülnének.
A Google, a Microsoft és az xAI technológiai cégek megállapodtak abban, hogy az Egyesült Államok Kereskedelmi Minisztériuma az AI Szabvány- és Innovációs Központon (CAISI) keresztül vizsgálja meg modelleiket.
Az értékelések kiterjednek „a kereskedelmi AI-rendszerekhez kapcsolódó tesztelésre, együttműködési kutatásra és legjobb gyakorlatok fejlesztésére” – áll a közleményben.
A CAISI emellett értékelni fogja az AI-rendszerekhez kapcsolódó „bizonyítható kockázatokat”, például a kiberbiztonságot, a biológiai biztonságot és a vegyi fegyverekkel kapcsolatos kockázatokat – olvasható a honlapján.
„A független, szigorú méréstudomány elengedhetetlen a határ menti mesterséges intelligencia és nemzetbiztonsági következményeinek megértéséhez” – nyilatkozta Chris Fall, a CAISI igazgatója. „Ezek a kibővített iparági együttműködések segítenek abban, hogy a kritikus pillanatban a közérdekű munkánkat skálázzuk.
A Microsoft egy nyilvános nyilatkozatában kijelentette, hogy a CAISI-értékelések segítik őket abban, hogy megelőzzék a kockázatokat, például a mesterséges intelligencia kibertámadásait a Copilot AI modelljük esetében.
Hangsúlyváltás Trump számára
Az a bejelentés, miszerint értékelni fogják az AI-cégeket, kilépést jelent Trump elnök számára, aki régóta azzal érvelt, hogy az AI-rendszerek túlzott szabályozása árthat az ország innovációjának, és lehetővé teheti, hogy Kína előnyhöz jusson.
Trump márciusban kiadta a mesterséges intelligencia nemzeti politikai keretrendszerét, amely szerint az Egyesült Államok „eltávolítja az innováció akadályait”, és „felgyorsítja” a mesterséges intelligencia alkalmazását a különböző ágazatokban.
Azt is mondta, hogy a Kongresszus nem hoz létre „néhány szövetségi szabályalkotó testületet a mesterséges intelligencia szabályozására”, hanem a meglévő szabályozó testületeket és bizonyos területek szakértőit kéri fel a modellek megvizsgálására.
A CAISI már 40 értékelést végzett más modellekről, beleértve néhány „a legkorszerűbb, kiadatlan modellt is”, de nem pontosította, hogy mely modellekre vonatkozik.
A meglévő megállapodások „újratárgyalása”.
Az OpenAI és az Anthropic 2024-ben írt alá megállapodást ezekről az értékelésekről Joe Biden volt elnök alatt. A CAISI szerint a meglévő megállapodásokat „újratárgyalták”, de nem részletezte, hogy mi változott.
Chris Lehane, az OpenAI globális ügyekért felelős vezérigazgatója a LinkedIn-en elmondta, hogy a vállalat a ChatGPT5.5-öt biztosította a kormánynak a heti nyilvános megjelenés előtt, hogy „támogassa a nemzetbiztonsági tesztelést és értékelést”.
Lehane elmondta, hogy az OpenAI a CAISI-vel dolgozik olyan modellek tesztelésén, mint a GPT-5.5-Cyber, egy olyan speciális modell, amely erősíti a kibervédelmi képességeket, és amely csak az első felhasználók korlátozott csoportja számára érhető el.
Az OpenAI bejelentette, hogy részt vesz a kiberbiztonsági modell „felelősségteljes telepítési stratégiájának” kidolgozásában is, beleértve egy olyan útmutatót is, amely e modelleket a közszolgáltatásban terjeszti.






