A kiberbűnözők kipróbálták az AI-t – és csalódottan távoztak, derül ki a tanulmányból

Dániel Szabó

A kiberbűnözők kipróbálták az AI-t – és csalódottan távoztak, derül ki a tanulmányból

Az Edinburghi Egyetem új kutatása szerint a hackerek nem jártak sikerrel az AI-eszközök munkájuk során, sem közvetlenül a csalásukban, sem pedig a hatékonyabb eszközök kifejlesztésében.

A kiberbűnözők nehezen tudják beépíteni munkájukba a mesterséges intelligenciát (AI) – derült ki egy új elemzésből.

Az Edinburghi Egyetem új, nyomtatás előtti tanulmánya több mint 100 millió internetes bűnözők fórumbejegyzését elemezte a CrimeBB adatbázis segítségével, amely földalatti fórumokról gyűjti össze az adatokat.

Az adatokat manuálisan és nagy nyelvi modell (LLM) segítségével is elemeztük

Míg a kiberbűnözők érdeklődést mutattak az AI-eszközök használatának elsajátítása iránt, a technológia nem változtatta meg jelentősen a „munkamódjukat” – állapította meg a tanulmány.

„Sok áttekintés és megbeszélés szerint az (AI) eszközök nem különösebben hasznosak” – olvasható a tanulmányban.

A kutatók „nem találtak jelentős bizonyítékot” arra, hogy a hackerek sikerrel jártak volna a mesterséges intelligencia használatával a hackelési tevékenységük javításában, akár tanulási segédeszközként, akár hatékonyabb eszközök kifejlesztésében.

A mesterséges intelligencia kódolási asszisztensei többnyire azok számára hasznosak, akik már jártasak a kódolásban, így a kódolási segítséget kínáló AI-modellek nem okoznak jelentős „bökést”, amikor megpróbálnak betörni az eszközökbe vagy megtalálni a biztonsági megoldásokat – tette hozzá a tanulmány.

„Először egyedül kell megtanulnia a programozás köteleit, mielőtt használhatná az AI-t, és VALÓBAN hasznot húzhat belőle” – áll a tanulmány által idézett bejegyzésben.

A mesterséges intelligencia eddigi fő hatása a kevésbé legális online tevékenységekre az olyan könnyen automatizálható területeken van, mint a közösségimédia-botok létrehozása, néhány romantikus csalás és keresőoptimalizálási (SEO) csalás, vagy hamis webhelyek létrehozása, amelyek a keresési eredmények rangsorában feljebb kerülnek, hogy pénzt keressenek a hirdetésekből.

A vélemények azt sugallják, hogy még a legtapasztaltabb hackerek is chatbotokat használnak a kódolási kérdések megválaszolására vagy „cheatsheet” generálására, hogy segítsenek nekik kódolni.

A ténylegesen használt mesterséges intelligencia a „főáramú és legális termékek” alá tartozik, mint például az Anthropic’s Claude vagy az OpenAI’s Codex, nem pedig a kiberbűnözésre specifikus mesterséges intelligencia modellek, például a WormGPT, amelyeket a hackerek rosszindulatú programkódok vagy adathalász e-mailek előállítására terveztek.

A tanulmány által elemzett bejegyzések közül sok a kiberbűnözőkről szól, akik olyan technikákat kérnek, amelyekkel megkerülhetik a biztonsági előírásokat ezeken a főbb modelleken, de úgy tűnik, nehezen tudják rávenni az AI-rendszereket, hogy felülírják biztonsági beállításaikat.

Ehelyett a kiberbűnözők arra kényszerülnek, hogy régebbi, gyengébb minőségű nyílt forráskódú mesterséges intelligenciamodelleket alkalmazzanak, amelyek könnyebben betörhetők. Általában kevésbé hasznosak, és „jelentős erőforrásokat igényelnek” – állapították meg a kutatók.

Tanulmányuk azt sugallja, hogy az AI-cégek által felállított védőkorlátok működnek – egyelőre.

Dániel Szabó

Dániel Szabó

Szabó Dániel vagyok, újságíró és elemző. A társadalmi változások és a politikai narratívák metszéspontjai érdekelnek, különösen közép-európai kontextusban. A 2022 Plusznál hiszek abban, hogy a jó kérdés néha fontosabb, mint a gyors válasz.