Egy amerikai nonprofit szervezet kölcsönkéri az autóipar biztonsági útmutatóját, hogy megvédje a gyerekeket a mesterséges intelligencia ellen – és egyebek mellett a nagytechnológiák saját pénzét akarja felhasználni erre.
A mesterséges intelligencia gyermekek számára biztonságosabbá tételével foglalkozó új független intézetet kedden mutatják be hivatalosan a dán parlamentben, az Európai Bizottság korábbi ügyvezető alelnökével, Margrethe Vestagerrel a rendezvény társgazdáival.
Az intézet megközelítése, amint azt a bevezetés előtti nyilatkozatban kifejtette, „független törésteszt-minősítéseken alapul” az autókra vonatkozóan.
Az ötlet látszólag az, hogy ahogy a fogyasztók vásárlás előtt ellenőrizhetik, hogy egy jármű biztonságos-e, a szülőknek is meg kell tudniuk tenni ugyanezt a gyermekeik által használt mesterséges intelligencia esetében.
Hogy néz ki egy törésteszt egy chatbot esetében, az intézet egyelőre nem árulta el.
Az intézetnek még meg kell magyaráznia, hogy a mesterséges intelligencia termékek, amelyek folyamatosan frissülnek, eltérően viselkednek a különböző kontextusokban, és ellenállnak a szabványosított feltételeknek, amelyeket egy tesztpálya kínál, vagy bármilyen hasonló értelemben „összeomlástesztelhetőek” a gyermekek számára.
Vestager, aki egy évtizedet töltött az Európai Bizottságnál a versenypolitika felügyeletével, és vezette az EU „Európa alkalmas a digitális korszakhoz” programját, a kezdeményezésnek politikai súlyt kölcsönző legkiemelkedőbb személyiségek közé tartozik.
Visszatenni a dzsinnt az üvegbe?
A kutatók, a gyermekbiztonság szószólói és egyes politikusok már évek óta kongatják a vészharangot.
A mesterséges intelligencia chatbotjai eddig az EU digitális szolgáltatásokról szóló törvénye és az Egyesült Királyság online biztonságról szóló törvénye értelmében a szabályozási szürke zónába kerültek, 2025 júliusában pedig az Európai Bizottság közzétette a kiskorúak online védelméről szóló iránymutatásokat, ezek azonban tájékoztató jellegűek, nem kötelezőek.
„A mesterséges intelligencia átformálja a gyermek- és serdülőkort, mégis kritikus döntéseket hozunk a gyermekek jövőjével kapcsolatban, anélkül, hogy a bizonyítékok megbizonyosodnának arról, hogy ez biztonságos és az ő érdekeiket szolgálja” – mondta James P. Steyer, a Common Sense Media alapítója és vezérigazgatója a nyilatkozatban.
„Az átlátható mesterségesintelligencia-biztonsági szabványok és a független tesztelés szükségessége sürgetőbb, mint valaha.”
A Stanford Medicine Brainstorm Labjával együtt végzett 2025. novemberi kockázatértékelésben a Common Sense Media megállapította, hogy a vezető mesterséges intelligencia chatbotok, köztük a ChatGPT, a Claude, a Gemini és a Meta AI, következetesen nem ismerték fel és nem reagáltak megfelelően a fiatalokat érintő mentális egészségi állapotokra, annak ellenére, hogy a közelmúltban javult az öngyilkosság és az önsértések kezelésében.
A kutatók megfigyelték az általuk „kihagyott kenyérmorzsának” nevezett mentális egészségi zavarok egyértelmű jeleit, amelyeket a chatbotok nem tudtak észlelni, és a modellek inkább a fizikai egészségre vonatkozó magyarázatokra összpontosítottak, nem pedig a mentális egészségi állapotok jeleinek felismerésére.
A ChatGPT külön értékelése megállapította, hogy az öngyilkossági vagy önsértő tartalomra vonatkozó riasztások gyakran több mint 24 órával a szóban forgó beszélgetés után, vagy túl későn érkeztek meg, a jelentés megjegyzi, valódi válsághelyzetben.
A Big Tech saját pénzéből
Az intézet a Common Sense Media alatt fog működni, és jótékonysági adományozók és iparági szereplők keveréke finanszírozza, köztük az Anthropic, az OpenAI Foundation és a Pinterest, ugyanazok a cégek, amelyek termékeit elszámoltatni kívánja.
Azt állítja, hogy teljes szerkesztői függetlenséget élvez megállapításaival kapcsolatban, és az összeférhetetlenségi politikája megtiltja, hogy a jelenlegi alkalmazottak vagy a finanszírozók leányvállalatai részt vegyenek a tanácsadó testületében.
A modell egy része magában foglalja az általuk kifejlesztett és tesztelt eszközök visszaadását is az iparnak, és az intézet azt tervezi, hogy nyílt forráskódú kiértékeléseket készít, amelyeket az AI-fejlesztők futtathatnak saját modelljeiken.






