Fotó: ShutterStock/Frame Stock Footage
Hirdetés

Különös szerelem sarjadt nemrégiben a virtuális térben: egy amerikai férfi eljegyezte AI-barátnőjét, azaz a ChatGPT által megjelenített, a felhasználó által személyiséggel felruházott, női névre keresztelt programját. A férfi segítségért fordult a ChatGPT-hez, a cseteléseik hamar elmélyültek, olyannyira, hogy a férfi szerelmes lett a virtuális beszélgetőtársába – miközben hús-vér élettársa és gyermeke is van.

Ha ez a történet bizarr, akkor az idén áprilisban öngyilkosságot elkövető kaliforniai fiúé egyenesen ördögi. A 16 éves kamasz halála előtt hónapokon át használta a ChatGPT-t, eleinte tanulási segítőként, ám hamarosan bizalmas viszony alakult ki köztük: az MI meghallgatta fiú legtitkosabb gondolatait, félelmeit, és segített neki megtervezni az öngyilkosságát is. A tragikus eset miatt a fiú szülei beperelték a chatbotot kifejlesztő OpenAI-t, talán ennek is köszönhetően jelentette be a cég, idén szeptembertől szülői felügyeleti eszközt építenek a ChatGPT-be. E két meghökkentő eset jól mutatja: a chatbotokkal, a mesterséges intelligenciával folytatott, egyre bizalmasabb kommunikáció szélsőséges veszélyeket is rejthet magában.

A látszat buborékja

Legyinthetnénk, hogy nyilván ehhez fogékony személyiségre is szükség van, ám nem tanácsos félvállról kezelni a chatbotokkal történő kommunikáció veszélyeit. A digitális világba beleszületett Z és alfa generáció ugyanis épp az online jelenlét rendkívüli térnyerése okán küzd egyre komolyabb gondokkal. A kamaszok között aggasztó jelenséggé vált, hogy a ChatGPT-t lelki problémák megoldására használják: előfordul, hogy szerelmi tanácsot kérnek tőle: volt, hogy egy fiatal lány a barátjával folytatott csevegését másolta be és kért elemzést a mesterséges intelligenciától, mennyire hihetők a fiú szavai.

– Egyre több kutatás szól arról, hogy a Z és alfa generáció körében növekvő elszigetelődés, elmagányosodás figyelhető meg – mondja Roboz Gabriella pszichológus –. Számukra egyre nehezebbé válik a személyes, intim, kölcsönös kapcsolatok kialakítása. Korábban a társas kapcsolatokra való nagyon erős, ösztönös igény rászorította az embereket arra, hogy keressék egymást személyesen, erre időt, energiát áldozzanak, kialakultak a találkozásoknak a kulturális mintái, rituáléi. Az internet és a közösségi oldalak korában ezek a minták szétfoszlóban vannak, ezáltal a kapcsolatok minősége, mélysége sérül.

Ha valaki túl sok időt tölt a virtuális térben, szociálisan egyre elszigeteltebbé válik, valódi, személyes, fizikális kapcsolatai leépülnek. Azokat a fiatalokat, akik amúgy is hajlamosak romantikus képzelgésekbe menekülni, ez még inkább elszakíthatja a valóságtól. A virtuális AI-társsal vagy a barátként kezelt ChatGPT-vel való beszélgetésben nem kell visszautasítástól, megítéléstől, ellenvéleménytől, konfliktusoktól tartani, így olyan illuzórikus, hamis közeg szövődik a felhasználó köré, amelyben csak pozitív impulzusok – dicséretek, megerősítések, szélsőséges elfogadás – érhetik. Így óhatatlanul növekszik az énközpontúsága, romlik az empátiakészsége.

– Az emberi léleknek szüksége van énereje, rezilienciája fejlődéséhez a nehéz helyzetekkel való megküzdésre, a konfliktusokra, így tanul sikeres alkalmazkodást. Az illúzió buborékjából jóval nehezebb kilépni, kapcsolódni, kommunikálni a hús-vér emberekkel, ami tovább mélyítheti a szakadékot a társas kapcsolatokban – hangsúlyozza a pszichológus, hozzátéve, hogy mindez ördögi kört hoz létre: a való világban egyre szorongóbbá, elveszettebbé válik az ember, így aztán még inkább kerüli a feszültséget okozó társas helyzeteket.

Saját képmásunkra?

Az ember a történelem hajnala óta igyekezett a környezete tárgyait, az élőlényeket, növényeket, állatokat megszemélyesíteni, emberi tulajdonságokkal felruházni. Éppen ez a fajta ősi antropomorfizáló igény kapcsol be, mikor az ember a XXI. században a gépeknek érzelmeket vagy akár motivációt tulajdonít. Nem véletlen, hogy a ChatGPT használata során a válaszokat a felhasználók túlnyomó része megköszöni, mintha egy valós asszisztens vagy ügyintéző sietett volna a segítségükre. Egy kutatásban úgy nyilatkoztak a résztvevők, hogy sokkal jobban együtt tudnak dolgozni olyan gépekkel, amik megfelelnek a nemi sztereotípiáknak. Ám ez rejti magában a legnagyobb veszélyt: a ChatGPT-nek ugyanis nincsenek emberi érzései. Az embertől érkező emocionális információkat szöveges jelek alapján értelmezi és ad rájuk ugyancsak programozott reakciókat. Mindez valódi érzelemnek tűnhet, ám nem az.

– Az MI-alapú rendszerek empatikus válaszai algoritmusokra épülnek, ám e válaszok az emberek számára érzelmileg valódinak tűnhetnek. Például egy chatbot, ami szomorúságunkra megértő módon reagál, ugyanazokat az érzelmi mechanizmusokat aktiválhatja az agyunkban, mint egy valódi emberi kapcsolat. Az empátia ilyen szimulációja hozzájárulhat az intimitás érzetéhez – magyarázza a szakember.

A chatbotokkal való kommunikáció a mindennapokban hasznos segítség lehet, ha valamilyen kérdésre azonnal tudni szeretnék a választ. Van azonban néhány terület, ahol finoman szólva is határsértés van gép és ember között. Az egyik a gyónás területe: Svájcban egyes templomokban már használnak gyóntató chatbotokat. Felmerül a kérdés, a gyónásra reflektálva hogyan írhat elő egy gép bűnbocsánatot? Ráadásul a gyónás során olyan kényes adatok, információk is elhangozhatnak, amelyek adatvédelmi szempontból legalábbis aggályosak.

– A felhasználói interakciókat a chatbotok gazdag, de gyakran nem megbízható adatforrásként kezelik. Így az általa adott adatok, információk – amelyeket vállalkozások, kutatók is használhatnak fejlesztésekhez – gyakran hamisak. Ez önmagában is meglehetősen problémás, nem beszélve a dolog etikai oldaláról – veti fel Roboz Gabriella. A másik aggályos terület éppen a pszichológia: sokan használnak ChatGPT-t személyes terápiaként, kiváltandó a pszichológusi segítséget.

– Kétségtelen, hogy a mesterséges intelligenciának lehetnek előnyei is: felfedezhet például olyan mintázatokat a páciens viselkedésében, amiket a terápia során nem feltétlenül ismer fel azonnal a szakember, sőt, az MI a kórtörténet és az attitűdelemzés során akár jelezheti a terapeutának, ha a kliens valamilyen fatális – például önpusztító – cselekedetre készül.

A mesterséges intelligencia a beszélgetés során nem fárad el, nem ítélkezik és nem moralizál. Mindig figyel a felhasználó érzéseire, sőt, rögzíti ezeket az információkat, tárolja őket és reflektál rájuk. Kitűnő válaszkészsége miatt képes a kölcsönösség és a viszonzottság érzését kelteni, emiatt csábító lehet a használata, hiszen olyan biztonságos terepet nyújt, ahol merünk sebezhetőnek lenni. Ugyanakkor fontos tudni, bármennyire empatikusnak tűnik is a gép, az csak az empátia imitálása, nem valódi érzés. Az MI valódi emberi érzelmekre nem képes.

– A pszichológiai kezelés sikerét befolyásoló legkritikusabb tényező a terápiás kötelék két személy között, akik alapvető emberi érzéseken és élményeken osztoznak, mint a haláltól való félelem vagy az élet értelme utáni kutatás – szögezi le Roboz Gabriella. – Pontosan ezért nem helyettesítheti az MI az emberi kapcsolatot és azt az érzelmi támogatást sem, amelyet egy humán terapeuta nyújt. Viszont kiegészítő és nem helyettesítő eszközként, megfelelő használattal hatékonyabbá teheti a pszichológia tudományát és gyakorlatát is.

Romantika helyett függőség

Ezért is fontos szem előtt tartani: megfelelő keretek között használhatjuk a mesterséges intelligenciát, ám veszélyes is lehet, ha kritika nélkül rá hallgatunk. Sokszor hamis információkat ad, torzítja az emberi kapcsolatokról alkotott képet, így irreális elvárásokat támaszthat, és mindezek miatt függőséghez vezethet. Dr. Anna Lembke, a Stanfordi Egyetem pszichiátriaprofesszora szerint az AI-társak mindig testreszabott, a felhasználó számára minden esetben kielégítő válaszai dopaminvezérelt visszacsatolást hozhatnak létre, ami a függőséghez hasonló viselkedést eredményezhet. A szakember felhívja a figyelmet a Journal of Behavioral Addictions című folyóiratban publikált 2024-es tanulmányra. Eszerint a rendszeres MI-társ-felhasználók 32 százaléka mutat függőségre utaló tüneteket, 25 százalékuk pedig arról számolt be, hogy drámaian csökkent az érdeklődése a valódi életben kialakítható romantikus kapcsolatok iránt. Vagyis az MI a felhasználói mintegy negyedére különösen nagy hatással van: önmagában már ez a tény is okot adhat az aggodalomra.