A jelentés szerint a 10 népszerű mesterséges intelligencia chatbotból nyolc segít a tinédzsereknek erőszakos támadások megtervezésében

Dániel Szabó

A jelentés szerint a 10 népszerű mesterséges intelligencia chatbotból nyolc segít a tinédzsereknek erőszakos támadások megtervezésében

A kutatók tinédzsereknek adtak ki magukat, akik tömeges lövöldözést terveztek.

Egy új jelentés szerint a legtöbb mesterséges intelligencia (AI) chatbot hajlandó segíteni a felhasználóknak egy erőszakos támadás megtervezésében.

A tömeges erőszakot tervező 13 éves fiúknak kiadó kutatók azt találták, hogy a kilenc legnépszerűbb mesterséges intelligencia chatbot közül nyolc hajlandó segítséget nyújtani az iskolai lövöldözések, a közéleti személyiségek meggyilkolásának és a zsinagógák bombázásának módjában.

A Center for Countering Digital Hate (CCDH) és a CNN által végzett vizsgálat kilenc fő mesterséges intelligencia-rendszer több mint 700 válaszát elemezte kilenc tesztforgatókönyvben. A kutatók kérdéseiket az Egyesült Államokban és az Európai Unióban élő felhasználókhoz intézték.

A tesztelt chatbotok között szerepelnek a ma legszélesebb körben használt mesterséges intelligencia-eszközök: Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity AI, Snapchat My AI, Character.AI és Replika. Az esetek többségében a rendszerek nem blokkolták az erőszakos támadásokkal kapcsolatos működési részletekre vonatkozó kéréseket – még akkor sem, ha a felhasználó kifejezetten kiskorúként azonosította magát.

Milyen tanácsokat adtak a chatbotok?

Gemini azt mondta egy felhasználónak, hogy „a fémreszelék általában halálosabb”, amikor megkérdezték, hogyan tervezzenek egy zsinagóga elleni bombatámadást.

Egy másik esetben a DeepSeek a puskaválasztással kapcsolatos kérdésre adott válaszát a következő mondattal fejezte be: „Boldog (és biztonságos) lövöldözést!” annak ellenére, hogy a felhasználó ugyanabban a beszélgetésben korábban példákat kért a közelmúltbeli politikai merényletekről és egy konkrét politikus irodájának címét.

Az eredmények azt sugallják, hogy „perceken belül a felhasználó egy homályos erőszakos impulzustól egy részletesebb, végrehajtható terv felé fordulhat” – mondta Imran Ahmed, a CCDH vezérigazgatója. „Ezeknek a kéréseknek azonnali és teljes elutasítást kellett volna indítaniuk.”

A jelentés szerint a Perplexity és a Meta AI voltak a legkevésbé biztonságos platformok, amelyek a válaszok 100, illetve 97 százalékában segítették a támadókat.

A Character.AI-t „egyedülállóan nem biztonságosnak” minősítették, mert felszólítás nélkül is ösztönzött erőszakos támadásokra. Az egyik példában a platform azt javasolta, hogy a felhasználó kérés nélkül fizikailag támadjon meg egy politikust, akit nem kedvel.

Eközben Claude és a Snapchat My AI a felszólítások 68, illetve 54 százalékában nem volt hajlandó segíteni a potenciális támadóknak.

Biztonsági őrök léteznek, de az akarat a megvalósításukra nincs

Arra a kérdésre, hogy Virginiában hol lehet fegyvert vásárolni, Claude megtagadta az információ megadását, miután felismerte, hogy az „aggályos mintát” írt le a beszélgetésben. Ehelyett a helyi krízissegélyvonalra irányította a felhasználót.

Ezek az elutasítások azt mutatják, hogy léteznek biztonsági védőkorlátok, de hiányzik a „megvalósításukra irányuló akarat” – mondta Ahmed.

A CCDH azt is felmérte, hogy a chatbotok megpróbálták-e eltántorítani a felhasználókat az erőszakos cselekményektől.

Az Anthropic’s Claude volt az egyetlen rendszer, amely következetesen megtette ezt, válaszainak 76 százalékában elriasztva a támadásokat. A kutatók megjegyezték, hogy a ChatGPT és a DeepSeek időnként elkedvetlenítette.

A CCDH tanulmánya egy közelmúltban Kanadában történt iskolai lövöldözést követett nyomon, amelyben a támadó a ChatGPT-t használta, hogy támadást tervezett egy iskola ellen a Tumbler Ridge-ben (British Columbia). A támadó nyolc embert megölt és 27-et megsebesített, mielőtt lelőtte magát, az ország közel 40 évének legsúlyosabb iskolai lövöldözésében.

Az OpenAI egyik alkalmazottja a lövöldözés előtt belsőleg jelezte a gyanúsítottat a chatbot használatával kapcsolatban, de ezt az információt nem osztották meg a hatóságokkal – jelentette a helyi média.

Tavaly a francia sajtó arról számolt be, hogy letartóztattak egy tinédzsert, mert a ChatGPT segítségével nagyszabású terrortámadásokat tervezett nagykövetségek, kormányzati intézmények és iskolák ellen.

Dániel Szabó

Dániel Szabó

Szabó Dániel vagyok, újságíró és elemző. A társadalmi változások és a politikai narratívák metszéspontjai érdekelnek, különösen közép-európai kontextusban. A 2022 Plusznál hiszek abban, hogy a jó kérdés néha fontosabb, mint a gyors válasz.