Az Anthropic és az OpenAI vegyi anyagok és robbanások szakértőit toboroznak, hogy biztonsági korlátokat építsenek mesterségesintelligencia-rendszereikhez.
Az Anthropic és az OpenAI mesterséges intelligenciával (AI) foglalkozó cégek fegyver- és robbanóanyag-szakértőket keresnek, hogy megakadályozzák a technológiájukkal való visszaélést – derül ki mindkét cég álláshirdetéseiből.
Az Anthropic egy LinkedIn-bejegyzésben jelentette be, hogy vegyi fegyverekkel és robbantásokkal foglalkozó szakpolitikai szakértőt keres, hogy megakadályozza a technológiájával való „katasztrofális visszaéléseket” azáltal, hogy meghatározza, hogyan kezeljék mesterséges intelligenciarendszerei érzékeny információkat ezeken a területeken.
Az Anthropicnál felvett személy megtervezi és felügyeli a védőkorlátokat, hogy az AI-modellek hogyan reagálnak a vegyi fegyverekkel és robbanóanyagokkal kapcsolatos felszólításokra. Ezenkívül „gyors reagálást” hajtanak végre minden olyan eszkalációra, amelyet az Anthropic a fegyverek és robbanások során észlel.
A pályázóknak legalább ötéves tapasztalattal kell rendelkezniük „vegyi fegyverek és/vagy robbanóanyagok elleni védelem” területén, valamint ismerniük kell a „radiológiai szétterítő eszközöket” vagy a piszkos bombákat. A szerep új kockázatértékelések kidolgozását foglalja magában, amelyekben a vállalat vezetése „megbízhat a nagy téttel járó bevezetések során”.
Az OpenAI e hónap eleji álláshirdetése szerint kutatókat keres a Preparedness csapatához, amely „a határ menti AI modellekkel kapcsolatos katasztrofális kockázatokat figyeli”.
Fenyegetésmodellezőt is hirdetett, amely egy személynek biztosítaná az elsődleges tulajdonjogot „a határkockázatok azonosításában, modellezésében és előrejelzésében”, és „központi csomópontként szolgálna, amely összeköti a technikai, irányítási és szakpolitikai szempontokat a prioritások meghatározásában, a fókuszban és az indoklásban a mesterséges intelligencia által okozott határkockázatokkal kapcsolatos megközelítésünkben”.
Az 2022 Plusz Next megkereste az Anthropicot és az OpenAI-t az álláshirdetésekkel kapcsolatban, de nem kapott azonnali választ.
Ezek a bérbeadások azután történtek, hogy az Anthropic jogi kifogást emelt az Egyesült Államok kormánya ellen, miután a vállalatot „ellátási lánc kockázatának” minősítette, amely lehetővé teszi a kormány számára, hogy blokkolja a szerződéseket, vagy utasítsa a részlegeket, hogy ne dolgozzanak együtt velük.
A konfliktus február 24-én kezdődött, amikor a hadügyminisztérium (DOW) korlátlan hozzáférést követelt az Anthropic Claude chatbotjához.
Dario Amodei vezérigazgató azt mondta, hogy a DOW-szerződések nem tartalmazhatnak olyan eseteket, amikor Claude-ot tömeges belföldi megfigyelésre vetik be, és teljesen autonóm fegyverekbe integrálják.
Nem sokkal az Anthropic-kal való összeomlás után az OpenAI megállapodást írt alá a Department of War-ral (DOW) a mesterséges intelligencia besorolásáról a minősített környezetekben. A cég szerint az ügylet szigorú határvonalakat tartalmazott, például nem használja rendszereit tömeges megfigyelésre vagy autonóm fegyverekre.






