Az Internet Watch Foundation szerint a mesterséges intelligencia által generált tartalom explicitebb, szélsőségesebb és összetettebb, mint a múltban látott gyermekpornográfia egyéb típusai.
Egy új jelentés szerint a mesterséges intelligencia által generált, gyermekek szexuális zaklatását ábrázoló képek száma 14 százalékkal nőtt 2025-ben, mivel a nyomozók egyre nehezebben tudják megkülönböztetni a szintetikus tartalmat a valódi fényképektől.
Az Internet Watch Foundation (IWF) brit non-profit szervezet, amely a gyermekek szexuális zaklatását használó anyagok (CSAM) internetről való eltávolításával foglalkozik, az elmúlt év során több mint 8000 mesterséges intelligencia által generált képet és videót azonosított a felhasználói jelentésekből.
Az IWF kutatói mesterséges intelligencia által generáltnak minősítik a tartalmat, ha nyilvánvaló hibák vannak a képeken, ha az áldozat azt állítja, hogy mesterséges intelligencia, vagy ha az eredeti alkotótól van bármilyen információ a mesterséges intelligencia felhasználásáról.
Bár a mesterséges intelligencia által generált szexuális tartalom még mindig viszonylag kis hányadát teszi ki annak, amit a szervezet az interneten lát, az IWF arra figyelmeztet, hogy ez riasztó ütemben növekszik.
A mesterséges intelligencia által generált tartalom közül több mint 3400 olyan „teljes mozgású” mesterséges intelligencia által generált videókat tartalmazott, amelyek hiperrealisztikusak, és lehetővé teszik több ember számára, hogy a videókban interakcióba lépjenek.
A videók több mint 65 százaléka a bántalmazás legsúlyosabb formáit ábrázolta, beleértve a nemi erőszakot, a szexuális kínzást és az állattartást, amelyek a brit törvények szerint a gyermekek szexuális tartalom legmagasabb kategóriájának minősülnek.
Eközben a nem mesterséges intelligencia által generált szexuális tartalmak mindössze 43 százaléka tartozott a legszélsőségesebb kategóriákba. Az IWF szerint ez arra utal, hogy az elkövetők mesterséges intelligencia eszközöket használnak explicitebb, szélsőségesebb és összetettebb tartalom létrehozására, mint korábban.
„Most olyan technológiai környezettel nézünk szembe, amely példátlan könnyedséggel végtelen számú jogsértést generálhat” – mondta Kerry Smith, az IWF vezérigazgatója a jelentésben.
Hogyan használják az elkövetők az AI-t?
A tanulmány arra is rávilágít, hogy az elkövetők hogyan fejlesztenek és osztanak meg aktívan eszközöket.
A kutatók olyan vitákat figyeltek meg a sötét weben, ahol az elkövetők kereskednek, és közösen dolgoznak olyan egyedi mesterséges intelligencia modellek és adatbázisok kifejlesztésén, amelyek visszaélésszerű anyagokat generálnak.
Az egyik példában a kutatók azonosítottak egy „egyedi kurzusokat” kínáló hirdetést, amely azt ígérte, hogy megtanítja a felhasználókat, hogyan készítsenek mesterséges intelligencia által generált képeket tinédzserekről.
„Az egyes alkalmazások minimális erőfeszítéssel visszaélésszerű képeket hozhatnak létre, megszüntetve a műszaki szakértelem szükségességét, és jelentősen csökkentve a belépési korlátokat” – áll a jelentésben. Sok esetben a modelleknek csak egyetlen referenciaképre van szükségük a gyermekek szexuális tartalom előállításához.
Bár a mesterséges intelligencia bárki számára megkönnyíti az egyszerű CSAM-tartalom létrehozását, a jelentés szerint van néhány fejlettebb képességekkel rendelkező, jól ismert alkotó, aki hosszabb, kifinomultabb anyagokat készít. Például egy alkotónak több mint 3000-szer köszöntek meg egy 30 perces, mesterséges intelligencia által generált szexuális visszaélésről szóló videót.
Az IWF megjegyezte, hogy az általuk összegyűjtött anyagok csak „részleges képet” adnak a gyermekek szexuális anyagának teljes mennyiségéről, amely az interneten lebeg, és valószínűleg „jelentősen nagyobb”, mint amit talált.
Ennek az az oka, hogy az IWF elemzői korlátozottak a tekintetben, hogy hová nézhetnek, mivel nem képesek túllépni a fizetési falakon vagy titkosított tereken – áll a jelentésben.
Az EU-szerte érvényes tilalom „minimális normának” tekinthető
Smith sürgette az Európai Uniót, hogy fontolja meg az MI által generált, gyermekekkel való szexuális zaklatással kapcsolatos tartalmak és az ezek létrehozásához használt eszközök blokkszintű betiltásának bevezetését.
Bármilyen tiltás azt is illegálissá tenné, hogy a felhasználók saját személyre szabott tartalmat készítsenek, még akkor is, ha azt nem osztják meg – áll a jelentésben.
„A technológia fejlődése soha nem mehet a gyermekek biztonságának és jólétének rovására” – mondta Smith, hozzátéve, hogy egy ilyen tilalomnak „kivételek nélküli minimális szabványként” kell szolgálnia.
A jelentés nem sokkal azután készült, hogy az európai jogalkotók jóváhagyták az elektronikus hírközlési adatvédelmi irányelv ideiglenes kiterjesztését, amely jogszabály lehetővé teszi az internetes platformok számára a CSAM-tartalom észlelését.
Az április 3-án lejáró meghosszabbítás célja, hogy időt adjon a törvényhozóknak, hogy megállapodjanak a gyermekek online szexuális visszaélése elleni küzdelem hosszú távú jogi keretéről.
Egy sajtóközleményben a jogalkotók kijelentették, hogy minden jövőbeli intézkedésnek „arányosnak” kell maradnia, és csak a már potenciális gyermekszexuális anyagként megjelölt tartalmakra kell vonatkoznia, ahelyett, hogy lehetővé tennék az összes titkosított beszélgetés megfigyelését.
Az IWF azt is közölte, hogy az EU mesterséges intelligenciáról szóló törvényét is módosítani kívánja, hogy „nagy kockázatúnak” minősítsék a gyermekek szexuális tartalom előállítására használható mesterséges intelligencia rendszereket. A törvény értelmében a „magas kockázatú” megjelölés azt jelentené, hogy a rendszereket szigorúbb tesztelésnek kell alávetni, mielőtt az EU-ban elérhetővé válnának.
Ez a megjelölés kevesebb CSAM-tartalmat jelentene, mert az eszközöket alaposabban tesztelnék – tette hozzá a jelentés.
A mesterséges intelligencia gyermekek szexuális kizsákmányolására és gyermekpornográfiára való felhasználása az EU mesterséges intelligenciatörvénye értelmében már illegális, és a jogszabályok megakadályozzák, hogy minden olyan rendszer elérhető legyen a blokkban, amely kifejezetten ezt teszi.






