Egy chatbottól kérsz egészségügyi tanácsot? Íme, amit először tudnod kell

Dániel Szabó

Egy chatbottól kérsz egészségügyi tanácsot? Íme, amit először tudnod kell

Miután az OpenAI nemrégiben elindította a ChatGPT Health szolgáltatást, íme néhány tényező, amelyet figyelembe kell venni, mielőtt az AI chatbotokhoz fordulna orvosi tanácsért.

Mivel emberek százmilliói fordultak tanácsért a chatbotokhoz, csak idő kérdése volt, hogy a technológiai cégek mikor kezdenek el olyan programokat kínálni, amelyeket kifejezetten az egészségügyi kérdések megválaszolására terveztek.

Januárban az OpenAI bemutatta chatbotjának új verzióját, a ChatGPT Health-et, amely a vállalat szerint képes elemezni a felhasználók egészségügyi feljegyzéseit, wellness-alkalmazásait és a viselhető eszközök adatait, hogy megválaszolja az egészségügyi és egészségügyi kérdéseket.

Jelenleg várólista van a programra. Az Anthropic, a rivális mesterséges intelligencia vállalat hasonló szolgáltatásokat kínál Claude chatbotjának néhány felhasználója számára.

Mindkét vállalat azt állítja, hogy nagy nyelvi modellként ismert programjaik nem helyettesítik a professzionális ellátást, és nem használhatók egészségügyi állapotok diagnosztizálására. Ehelyett azt mondják, hogy a chatbotok összefoglalhatják és megmagyarázhatják a bonyolult teszteredményeket, segíthetnek felkészülni az orvoslátogatásra, vagy elemezhetik az egészségügyi feljegyzésekbe és az alkalmazások mérőszámaiba rejtett fontos egészségügyi trendeket.

De mennyire biztonságosak és pontosak ezek a chatbotok az egészségügyi adatok és állapotok elemzésére? És tényleg támaszkodnia kell rájuk?

Íme néhány dolog, amit figyelembe kell venni, mielőtt egy chatbottal beszélne az egészségéről:

A chatbotok személyre szabottabb információkat kínálnak, mint a Google-keresés

Egyes orvosok és kutatók, akik a ChatGPT Health-szel és hasonló programokkal dolgoztak, úgy látják, hogy ezek előrelépést jelentenek a status quo-hoz képest.

Az AI-platformok nem tökéletesek – néha hallucinálhatnak, vagy rossz tanácsokat adhatnak –, de az általuk előállított információ nagyobb valószínűséggel személyre szabott és specifikus, mint azt a betegek a Google-kereséssel találnák.

„Az alternatíva gyakran a semmi, vagy a beteg szárnyalja” – mondta Dr. Robert Wachter, a San Francisco-i Kaliforniai Egyetem orvostechnológiai szakértője. „És ezért úgy gondolom, hogy ha felelősségteljesen használja ezeket az eszközöket, akkor hasznos információkhoz juthat.”

Az olyan országokban, mint az Egyesült Királyság vagy az Egyesült Államok, ahol az orvosi időpontok hetekig is eltarthatnak, és a sürgősségi ellátás várakozási ideje gyakran órákig tart, a chatbotok segíthetnek csökkenteni a szükségtelen pánikot, és sok esetben időt takaríthatnak meg.

Ugyanakkor rávilágíthatnak arra is, ha a tünetek veszélyesek, és valódi egészségügyi szakembereknek kell értékelniük őket.

A legújabb chatbotok egyik előnye, hogy a felhasználók kérdéseire kórtörténetük kontextusában válaszolnak, beleértve a recepteket, az életkort és az orvos megjegyzéseit.

Még ha nem is adott mesterséges intelligencia hozzáférést orvosi adataihoz, Wachter és mások azt javasolják, hogy a lehető legtöbb részletet adják meg a chatbotoknak a válaszok javítása érdekében.

Ha aggasztó tünetei vannak, hagyja ki az AI-t

Wachter és mások hangsúlyozzák, hogy vannak olyan helyzetek, amikor az embereknek ki kell hagyniuk a chatbotot, és azonnal orvoshoz kell fordulniuk. Az olyan tünetek, mint a légszomj, mellkasi fájdalom vagy erős fejfájás, orvosi vészhelyzetet jelezhetnek.

A betegeknek és az orvosoknak még kevésbé sürgős helyzetekben is „egészséges szkepticizmussal” kell megközelíteniük az AI-programokat – mondta Dr. Lloyd Minor, a Stanford Egyetem munkatársa.

„Ha egy jelentős orvosi döntésről, vagy akár egy kisebb döntésről beszélünk az egészségével kapcsolatban, soha ne hagyatkozzunk csak arra, amit egy nagy nyelvi modellből hozunk ki” – mondta Minor, a Stanford Orvostudományi Karának dékánja.

Még az olyan kevésbé bonyolult vagy gyakori esetekben is, mint a policisztás petefészek szindróma (PCOS), jobb lehet valódi orvoshoz fordulni, mivel az állapot milyen változatos lehet a különböző egyéneknél, ami befolyásolja a kezelési terveket.

Mielőtt bármilyen egészségügyi adatot feltöltene, fontolja meg magánéletét

Az AI-botok által kínált számos előny abból fakad, hogy a felhasználók megosztanak személyes egészségügyi információkat. Fontos azonban megérteni, hogy az MI-cégekkel megosztott tartalmat nem védi az Egyesült Államok szövetségi adatvédelmi törvénye, amely általában az érzékeny orvosi információkat szabályozza.

A közismert nevén HIPAA, a törvény pénzbírságot, sőt börtönbüntetést is lehetővé tesz az orvosok, kórházak, biztosítók vagy más egészségügyi szolgálatok számára, akik feltárják az orvosi feljegyzéseket. A törvény azonban nem vonatkozik azokra a cégekre, amelyek chatbotokat terveznek.

„Ha valaki feltölti az orvosi táblázatát egy nagy nyelvi modellbe, az egészen más, mint egy új orvosnak átadni” – mondta Minor. „A fogyasztóknak meg kell érteniük, hogy teljesen eltérő adatvédelmi szabványokról van szó.”

Az OpenAI és az Anthropic is azt állítja, hogy a felhasználók egészségügyi adatait a többi adattípustól elkülönítve tárolják, és további adatvédelmi intézkedések vonatkoznak rájuk. A vállalatok nem használnak egészségügyi adatokat modelljeik képzésére. A felhasználóknak feliratkozniuk kell adataik megosztására, és bármikor megszakíthatják a kapcsolatot.

A tesztelés azt mutatja, hogy a chatbotok megbotlhatnak

Az AI körüli izgalom ellenére a technológia független tesztelése gyerekcipőben jár. A korai tanulmányok azt sugallják, hogy az olyan programok, mint a ChatGPT, képesek magas szintű orvosi vizsgálatok elvégzésére, de gyakran megbotlik az emberekkel való interakció során.

Az Oxfordi Egyetem 1300 résztvevős tanulmánya a közelmúltban megállapította, hogy azok az emberek, akik mesterséges intelligencia chatbotokat használnak hipotetikus egészségügyi állapotok kutatására, nem hoztak jobb döntéseket, mint azok, akik online keresést vagy személyes döntést hoznak.

Az orvosi forgatókönyveket átfogó, írásos formában bemutatott mesterséges intelligencia chatbotok az esetek 95 százalékában helyesen azonosították az alapbetegséget.

„Nem ez volt a probléma” – mondta Adam Mahdi, az Oxford Internet Institute vezető szerzője. „Az a hely, ahol a dolgok szétestek, a valódi résztvevőkkel való interakció során volt.”

Mahdi és csapata több kommunikációs problémát talált. Az emberek gyakran nem adták meg a chatbotoknak az egészségügyi probléma helyes azonosításához szükséges információkat. Ezzel szemben az AI-rendszerek gyakran jó és rossz információk kombinációjával válaszoltak, és a felhasználóknak gondot okozott a kettő közötti különbségtétel.

A 2024-ben végzett tanulmány nem a legújabb chatbot-verziókat használta, beleértve az olyan új ajánlatokat, mint a ChatGPT Health.

Egy második AI-vélemény hasznos lehet

A chatbotok azon képessége, hogy további kérdéseket tegyenek fel, és kulcsfontosságú részleteket kérjenek ki a felhasználóktól, az egyik olyan terület, ahol Wachter úgy látja, hogy javítani kell.

„Úgy gondolom, hogy ez akkor lesz igazán jó, amikor az eszközök egy kicsit orvosszerűbbé válnak, ahogy oda-vissza járnak” – mondta Wachter.

Egyelőre az egyik módja annak, hogy magabiztosabban érezze magát a kapott információkkal kapcsolatban, ha több chatbottal konzultál – hasonlóan ahhoz, mintha egy másik orvos második véleményét kérnénk.

„Néha információkat helyezek el a ChatGPT-be, és információkat a Geminibe” – mondta Wachter a Google mesterséges intelligencia-eszközére utalva. „És amikor mindketten egyetértenek, egy kicsit nagyobb biztonságban érzem magam, hogy ez a helyes válasz.”

Dániel Szabó

Dániel Szabó

Szabó Dániel vagyok, újságíró és elemző. A társadalmi változások és a politikai narratívák metszéspontjai érdekelnek, különösen közép-európai kontextusban. A 2022 Plusznál hiszek abban, hogy a jó kérdés néha fontosabb, mint a gyors válasz.