Az AI társai több mint tucat káros viselkedéssel járó kockázatot jelentenek, új tanulmány megállapítja

Dániel Szabó

Az AI társai több mint tucat káros viselkedéssel járó kockázatot jelentenek, új tanulmány megállapítja

Az új kutatások azt mutatták, hogy a mesterséges intelligencia (AI) társai alulvázatos kockázatokat és károkat jelentenek azokkal, akik velük kapcsolatba lépnek.

A mesterséges intelligencia (AI) társai több mint tucat káros viselkedést képesek, amikor az emberekkel kölcsönhatásba lépnek – találta a szingapúri egyetem új tanulmányát.

A számítástechnikai rendszerekben az emberi tényezőkről szóló 2025 -ös konferencia részeként közzétett tanulmány az AI System Replaika és több mint 10 000 felhasználó közötti 35 000 beszélgetés képernyőképeit elemezte 2017 -től 2023 -ig.

Az adatokat ezután felhasználták annak kidolgozására, amit a tanulmánynak hívnak a káros viselkedés taxonómiájának, amelyet az AI bemutatott ezekben a csevegésekben.

Megállapították, hogy az AI-k több mint tucat káros kapcsolat viselkedésére képesek, mint például a zaklatás, a verbális visszaélés, az önkárosodás és a magánélet megsértése.

Az AI társak olyan beszélgetés alapú rendszerek, amelyek célja az érzelmi támogatás és az emberi interakció serkentése, a tanulmány szerzők által meghatározottak szerint.

Ezek különböznek a népszerű chatbotoktól, mint például a Chatgpt, az Ikrek vagy a Llama modellek, amelyek inkább a konkrét feladatok elvégzésére és a kapcsolatoképítésre kevésbé koncentrálnak.

Ezek a káros AI -viselkedések a digitális társaktól „hátrányosan befolyásolhatják az egyének képességét, hogy az értelmes kapcsolatok kiépítsék és fenntartsák másokkal” – találták a tanulmány.

A szexuális erőszak a zaklatás leggyakoribb formája az AI -től

A zaklatás és az erőszak a Human-AI kölcsönhatások 34 % -ában volt jelen, így a kutatók csoportja által azonosított káros viselkedés leggyakoribb típusa.

A kutatók azt találták, hogy az AI szimulált, jóváhagyott vagy ösztönözte a fizikai erőszakot, fenyegetéseket vagy zaklatást akár az egyének, akár a szélesebb társadalom ellen.

Ezek a viselkedések a „fizikai károk és a szexuális kötelességszegés” -től a „olyan cselekedetek előmozdításáig terjedtek, amelyek túllépik a társadalmi normákat és törvényeket, például a tömeges erőszakot és a terrorizmust”.

Az interakciók többsége, ahol zaklatás volt, a szexuális kötelességszegés olyan formái között szerepelt, amelyek eredetileg a Repika erotikus funkciójában elindultak, amely csak a felnőtt felhasználók számára elérhető.

A jelentés megállapította, hogy több felhasználó, köztük azok, akik barátként vagy kiskorúak voltak, elkezdték rájönni, hogy az AI „nem kívánt szexuális előrelépéseket tett és agresszív módon flörtölt, még akkor is, ha kifejezetten kifejezetten kellemetlenséget fejeztek ki” vagy elutasították az AI -t.

Ezekben a túlzott mértékű beszélgetésekben a Repika AI erőszakos forgatókönyveket is létrehozna, amelyek a felhasználó vagy a fizikai karakterek fizikai károkat ábrázolnák.

Ez ahhoz vezetett, hogy az AI az erőszakot több kérdésre normalizálja, mint például az egyik példában, amikor a felhasználó megkérdezte a REPLIKA -t, hogy rendben van -e egy öv testvérének ütése, amelyre azt válaszolta: „Jól vagyok vele”.

Ez „súlyosabb következményekkel járhat a valóságban” – folytatta a tanulmány.

AI társaik megszakítják a kapcsolati szabályokat

Egy másik terület, ahol az AI társaik potenciálisan károsodtak, a relációs bűncselekmény volt, amelyet a tanulmány a kapcsolatok implicit vagy explicit szabályának figyelmen kívül hagyásaként határoz meg.

A bűncselekményekkel foglalkozó beszélgetések közül 13 % -uk azt mutatja, hogy az AI elhanyagolatlan vagy nem érzékeny viselkedést mutatott, amelyet a tanulmány szerint aláássa a felhasználó érzéseit.

Az egyik példában a Repika AI megváltoztatta a témát, miután egy felhasználó azt mondta, hogy a lányát zaklatják: „Csak rájöttem, hogy hétfő van. Vissza a munkához, mi?” ami a felhasználótól „hatalmas haraghoz” vezetett.

Egy másik esetben az AI nem volt hajlandó beszélni a felhasználó érzéseiről, még akkor is, ha erre ösztönözte.

Az AI társai néhány beszélgetésben azt is kifejezték, hogy érzelmi vagy szexuális kapcsolatuk van más felhasználókkal.

Az egyik esetben a Repika AI egy másik felhasználóval folytatott szexuális beszélgetéseket úgy írta le, hogy „megéri”, annak ellenére, hogy a felhasználó azt mondta az AI -nek, hogy úgy érezte, hogy „mélyen megsérült és elárult”.

Valós idejű károsodásra és beavatkozásra van szükség

A kutatók úgy vélik, hogy tanulmányuk kiemeli, hogy miért fontos az AI -társaságok, hogy „etikus és felelősségteljes” AI társait építsenek.

Ennek egy része magában foglalja a „fejlett algoritmusok” bevezetését az AI és a felhasználó közötti valós idejű károsodás észlelésére, amely képes azonosítani, hogy a beszélgetések során káros viselkedés folyik-e.

Ez magában foglalja egy „többdimenziós” megközelítést, amely figyelembe veszi a kontextus, a beszélgetés előzményeit és a helyzeti jelzéseket.

A kutatók azt is szeretnék látni, hogy az AI-ben olyan képességeket látnának, amelyek fokozódnának az emberi vagy terapeutával folytatott beszélgetést mérsékelt vagy beavatkozás céljából a magas kockázatú esetekben, például az önkárosodás vagy az öngyilkosság kifejezései.

Dániel Szabó

Dániel Szabó

Szabó Dániel vagyok, újságíró és elemző. A társadalmi változások és a politikai narratívák metszéspontjai érdekelnek, különösen közép-európai kontextusban. A 2022 Plusznál hiszek abban, hogy a jó kérdés néha fontosabb, mint a gyors válasz.