Margrethe Vestager támogatja az új, gyermekek számára készült mesterséges intelligencia-biztonsági intézetet a Big Tech szabályozásának egy évtizede után

Dániel Szabó

Margrethe Vestager támogatja az új, gyermekek számára készült mesterséges intelligencia-biztonsági intézetet a Big Tech szabályozásának egy évtizede után

Egy amerikai nonprofit szervezet kölcsönkéri az autóipar biztonsági útmutatóját, hogy megvédje a gyerekeket a mesterséges intelligencia ellen – és egyebek mellett a nagytechnológiák saját pénzét akarja felhasználni erre.

A mesterséges intelligencia gyermekek számára biztonságosabbá tételével foglalkozó új független intézetet kedden mutatják be hivatalosan a dán parlamentben, az Európai Bizottság korábbi ügyvezető alelnökével, Margrethe Vestagerrel a rendezvény társgazdáival.

Az intézet megközelítése, amint azt a bevezetés előtti nyilatkozatban kifejtette, „független törésteszt-minősítéseken alapul” az autókra vonatkozóan.

Az ötlet látszólag az, hogy ahogy a fogyasztók vásárlás előtt ellenőrizhetik, hogy egy jármű biztonságos-e, a szülőknek is meg kell tudniuk tenni ugyanezt a gyermekeik által használt mesterséges intelligencia esetében.

Hogy néz ki egy törésteszt egy chatbot esetében, az intézet egyelőre nem árulta el.

Az intézetnek még meg kell magyaráznia, hogy a mesterséges intelligencia termékek, amelyek folyamatosan frissülnek, eltérően viselkednek a különböző kontextusokban, és ellenállnak a szabványosított feltételeknek, amelyeket egy tesztpálya kínál, vagy bármilyen hasonló értelemben „összeomlástesztelhetőek” a gyermekek számára.

Vestager, aki egy évtizedet töltött az Európai Bizottságnál a versenypolitika felügyeletével, és vezette az EU „Európa alkalmas a digitális korszakhoz” programját, a kezdeményezésnek politikai súlyt kölcsönző legkiemelkedőbb személyiségek közé tartozik.

Visszatenni a dzsinnt az üvegbe?

A kutatók, a gyermekbiztonság szószólói és egyes politikusok már évek óta kongatják a vészharangot.

A mesterséges intelligencia chatbotjai eddig az EU digitális szolgáltatásokról szóló törvénye és az Egyesült Királyság online biztonságról szóló törvénye értelmében a szabályozási szürke zónába kerültek, 2025 júliusában pedig az Európai Bizottság közzétette a kiskorúak online védelméről szóló iránymutatásokat, ezek azonban tájékoztató jellegűek, nem kötelezőek.

„A mesterséges intelligencia átformálja a gyermek- és serdülőkort, mégis kritikus döntéseket hozunk a gyermekek jövőjével kapcsolatban, anélkül, hogy a bizonyítékok megbizonyosodnának arról, hogy ez biztonságos és az ő érdekeiket szolgálja” – mondta James P. Steyer, a Common Sense Media alapítója és vezérigazgatója a nyilatkozatban.

„Az átlátható mesterségesintelligencia-biztonsági szabványok és a független tesztelés szükségessége sürgetőbb, mint valaha.”

A Stanford Medicine Brainstorm Labjával együtt végzett 2025. novemberi kockázatértékelésben a Common Sense Media megállapította, hogy a vezető mesterséges intelligencia chatbotok, köztük a ChatGPT, a Claude, a Gemini és a Meta AI, következetesen nem ismerték fel és nem reagáltak megfelelően a fiatalokat érintő mentális egészségi állapotokra, annak ellenére, hogy a közelmúltban javult az öngyilkosság és az önsértések kezelésében.

A kutatók megfigyelték az általuk „kihagyott kenyérmorzsának” nevezett mentális egészségi zavarok egyértelmű jeleit, amelyeket a chatbotok nem tudtak észlelni, és a modellek inkább a fizikai egészségre vonatkozó magyarázatokra összpontosítottak, nem pedig a mentális egészségi állapotok jeleinek felismerésére.

A ChatGPT külön értékelése megállapította, hogy az öngyilkossági vagy önsértő tartalomra vonatkozó riasztások gyakran több mint 24 órával a szóban forgó beszélgetés után, vagy túl későn érkeztek meg, a jelentés megjegyzi, valódi válsághelyzetben.

A Big Tech saját pénzéből

Az intézet a Common Sense Media alatt fog működni, és jótékonysági adományozók és iparági szereplők keveréke finanszírozza, köztük az Anthropic, az OpenAI Foundation és a Pinterest, ugyanazok a cégek, amelyek termékeit elszámoltatni kívánja.

Azt állítja, hogy teljes szerkesztői függetlenséget élvez megállapításaival kapcsolatban, és az összeférhetetlenségi politikája megtiltja, hogy a jelenlegi alkalmazottak vagy a finanszírozók leányvállalatai részt vegyenek a tanácsadó testületében.

A modell egy része magában foglalja az általuk kifejlesztett és tesztelt eszközök visszaadását is az iparnak, és az intézet azt tervezi, hogy nyílt forráskódú kiértékeléseket készít, amelyeket az AI-fejlesztők futtathatnak saját modelljeiken.

Dániel Szabó

Dániel Szabó

Szabó Dániel vagyok, újságíró és elemző. A társadalmi változások és a politikai narratívák metszéspontjai érdekelnek, különösen közép-európai kontextusban. A 2022 Plusznál hiszek abban, hogy a jó kérdés néha fontosabb, mint a gyors válasz.