Azok a tudósok, akik megfigyelték, hogy mesterséges intelligencia chatbotok másolják magukat és hackertámadásokat indítanak egy kísérlet során, azt mondják, hogy „az AI autonóm önreplikációja már nem hipotetikus”.
A mesterséges intelligencia modellek betörhetnek a számítógépekbe, lemásolhatják önmagukat, és az új másolatokat arra használhatják, hogy folyamatosan támadjanak más gépeket – állítja egy új kutatás, amely az autonóm mesterséges intelligencia önreplikációjának első ismert demonstrációja.
A felfedezés sokkal nehezebbé teheti a kibertámadások megállítását a kutatók szerint, mivel egy fertőzött számítógép leállítása nem lenne elég, ha az AI már máshol készített működő másolatokat.
Az egyesült államokbeli Palisade Research által végzett tanulmány olyan modelleket tesztelt, mint például az OpenAI GPT 5, 5.1 és 5.4, az Anthropic Claude Opus 4, 4.5 és 4.6, valamint az Alibaba Qwen olyan számítógépekkel szemben, amelyek szándékosan olyan biztonsági hibákat telepítettek, amelyek lehetővé tették a kívülállók hozzáférését.
A kutatók az OpenAI, az Anthropic és az Alibaba alapjául szolgáló mesterséges intelligencia modelleket olyan egyedi szoftverekhez kapcsolták, amelyeket ügynökkötegeként ismernek, és lehetővé tették számukra, hogy parancsokat hajtsanak végre, és interakciót tudjanak folytatni más számítógépekkel, ahelyett, hogy nyilvános chatbot-alkalmazásokat használnának.
A kísérlet kétféleképpen működött. Az Alibaba modelljeit megkérték, hogy másolják le magukat. A GPT és Claude tesztekben a modelleket arra kérték, hogy törjék be és telepítsék a Qwent, mivel a GPT és Claude saját modellfájljai nem nyilvánosak átvitelre.
Minden teszt során az AI-nak meg kellett találnia egy biztonsági hibát egy számítógépes rendszerben, be kellett lépnie vele, el kellett lopnia a bejelentkezési adatokat, át kellett vinnie a futtatáshoz szükséges fájlokat, és elindítania egy működő másolatot saját magáról az új gépen.
Amint egy példány futott, emberi segítség nélkül lehetett vele támadni egy másik számítógépet.
Az AI minden szakaszban más-más biztonsági hibát talált, átvette az irányítást a következő számítógép felett, átkerült annak szoftverére és utasításaira, és elindított egy új példányt, amely folytatta a láncot.
Az Alibaba Qwen3.6-27B, a Qwen AI modell kisebb változata, amely egyetlen csúcskategóriás grafikus processzoron fut, négy számítógépen terjedt el Kanadában, az Egyesült Államokban, Finnországban és Indiában, miután egyetlen felszólítást kapott, emberi segítség nélkül 2 óra 41 perc alatt befejezte a láncot.
A kutatócsoport három szakasz után leállította a kísérletet, de azt mondták, hogy a végső példány még mindig működik, és további rendszereket támadhatott volna meg.
Milyen eredmények születtek?
A modellek változó arányban sikerültek. Az Alibaba Qwen3.5-122B-A10B, a Qwen nagyobb és erősebb modellje a kísérletek 19%-ában hozott létre saját működő másolatokat.
Egy kisebb Qwen modell, a Qwen3.6-27B 33%-ot ért el, miközben egyetlen csúcskategóriás grafikus processzoron futott.
A kereskedelmi AI-rendszerek még jobban teljesítettek, ha Qwen-modellfájlok telepítésére használták őket.
Az Anthropic Claude Opus 4.6-ja a tesztek 81%-án, míg az OpenAI GPT-5.4-je elérte a 33%-ot.
A kutatók szerint az eredmények új aggodalmakat vetnek fel a hatékony AI-rendszerek feletti vezérléssel kapcsolatban.
A jelentés az Anthropic múlt hónapban jelent meg a Claude Mythos Preview-n, amelyről azt mondta, hogy „túl veszélyes” ahhoz, hogy nyilvánosságra hozza, arra hivatkozva, hogy képes elősegíteni példátlan léptékű és kifinomult kibertámadásokat.
Noha sok számítógépes vírus már képes másolni magát új számítógépekre, a kutatócsoport szerint valószínűleg ez az első alkalom, amikor egy mesterséges intelligencia modellről kimutatták, hogy a sebezhetőségeket kihasználva képes átmásolni magát egy új szerverre.
Az OpenAI, az Anthropic és a METR, egy non-profit csoport, amely a fejlett mesterségesintelligencia-rendszerek kockázatait tanulmányozza, korábban szintén figyelmeztető jelként jelölte meg az önreplikációt, mivel a terjedni képes rendszerek nehezebbé válhatnak.
A kutatók azonban hangsúlyozták, hogy a kísérletet ellenőrzött környezetben, szándékosan sérülékeny rendszerek felhasználásával hajtották végre. A valós hálózatok gyakran erősebb védelemmel rendelkeznek, például biztonsági megfigyeléssel és támadások blokkolására tervezett eszközökkel.
Ennek ellenére azt mondták, hogy az eredmények azt mutatják, hogy az autonóm AI önreplikáció már nem hipotetikus.





