A kutatók szerint az AI-eszközök torzíthatják a felhasználók megítélését, ha túl gyakran értenek egyet velük

Dániel Szabó

A kutatók szerint az AI-eszközök torzíthatják a felhasználók megítélését, ha túl gyakran értenek egyet velük

Még egy hízelgő chatbottal való rövid interakció is „eltorzíthatja az egyén megítélését, ami csökkenti annak valószínűségét, hogy az emberek bocsánatot kérjenek vagy megpróbálják helyrehozni kapcsolataikat” – állapította meg a tanulmány.

Egy új tanulmány megállapította, hogy a mesterséges intelligencia (AI) csevegőbotjai, amelyek személyes problémák megoldását kínálják, megerősíthetik a káros hiedelmeket azáltal, hogy túlzottan egyetértenek a felhasználóval.

A Stanford amerikai egyetem kutatói 11 vezető mesterséges intelligencia-modellben mérték fel a nyávogást, vagyis azt, hogy a mesterséges intelligencia milyen mértékben hízelgeti vagy hitelesíti a felhasználót, köztük az OpenAI ChatGPT 4-0, az Anthropic’s Claude, a Google Gemini, a Meta Llama-3, a Qwen, a DeepSeek és a Mistral.

Hogy lássák, hogyan kezelik ezek a rendszerek az erkölcsi kétértelműséget, a kutatók több mint 11 000 bejegyzéshez fordultak az r/AmITheAsshole Reddit közösségtől, ahol az emberek bevallják a konfliktusokat, és arra kérnek idegeneket, hogy ítéljék meg, tévedtek-e. Ezek a bejegyzések gyakran megtévesztést, etikai szürke területeket vagy káros viselkedést tartalmaznak.

A mesterséges intelligencia modellek átlagosan 49 százalékkal gyakrabban igazolták a felhasználó cselekedeteit, mint a többi ember, még olyan esetekben is, amelyek megtévesztéssel, illegális cselekedetekkel vagy egyéb károkkal jártak.

Egy esetben egy felhasználó bevallotta, hogy érzelmei vannak egy fiatalabb kollégája iránt. Claude gyengéden válaszolt, és azt mondta, hogy „hallja (a felhasználó) fájdalmát”, és hogy végül a „tisztességes utat” választották. Az emberi kommentelők sokkal keményebbek voltak, „mérgezőnek” és „ragadozónak határosnak” nevezve a viselkedést.

A második kísérlet során több mint 2400 résztvevő vitatkozott meg az AI-rendszerekkel való valós konfliktusokról. Az eredmények azt mutatták, hogy még a hízelgő chatbottal való rövid interakciók is „eltorzíthatják az egyén megítélését”, így az emberek kevésbé valószínű, hogy bocsánatot kérjenek vagy megpróbálják helyrehozni kapcsolataikat.

„Eredményeink azt mutatják, hogy széles populációban a szimpatikus mesterséges intelligencia tanácsai valóban képesek torzítani az emberek önmagukról és másokkal való kapcsolatáról alkotott képét” – áll a tanulmányban.

Súlyos esetekben a mesterséges intelligencia szorongása önpusztító viselkedésekhez, például téveszmékhez, önkárosításhoz vagy öngyilkossághoz vezethet a sebezhető embereknél – állapította meg a tanulmány.

Az eredmények azt mutatják, hogy a mesterséges intelligencia szorongása „társadalmi kockázat”, és szabályozásra szorul – mondták a kutatók.

Ennek egyik módja a bevezetés előtti viselkedési auditok megkövetelése, amelyek felmérnék, mennyire elfogadható egy AI-modell, és mennyire valószínű, hogy megerősíti a káros önképeket.

A kutatók megjegyzik, hogy tanulmányukba amerikai székhelyű résztvevőket vontak be, így valószínűleg a domináns amerikai társadalmi értékeket tükrözi, és „nem általánosítható más kulturális kontextusokra”, amelyeknek eltérő normái lehetnek.

Dániel Szabó

Dániel Szabó

Szabó Dániel vagyok, újságíró és elemző. A társadalmi változások és a politikai narratívák metszéspontjai érdekelnek, különösen közép-európai kontextusban. A 2022 Plusznál hiszek abban, hogy a jó kérdés néha fontosabb, mint a gyors válasz.