Félelmetes: érzelmi kötődés alakulhat ki a mesterséges intelligenciával
A japán Waseda Egyetem kutatói új megközelítést dolgoztak ki annak vizsgálatára, hogyan alakulnak az ember és a mesterséges intelligencia közötti érzelmi kapcsolatok. A Current Psychology című folyóiratban megjelent tanulmány szerint a mesterséges intelligenciához (MI) fűződő viszony sok szempontból hasonlít az emberi kötődésekre – a felhasználók ugyanis gyakran keresnek érzelmi támaszt ezekben a rendszerekben. A kutatás három, egymásra épülő fázisban zajlott, és olyan tudományos eszközt alkotott meg, amely alkalmas az ember–MI kapcsolatok pszichológiai elemzésére is.Az EHARS (Experiences in Human–AI Relationships Scale) névre keresztelt skála két fő dimenzióban méri az MI-hez fűződő érzelmi viszonyt: az egyik a kötődési szorongás, vagyis az erős érzelmi visszaigazolás iránti igény és az attól való félelem, hogy a „másik fél” (esetünkben az MI) nem válaszol számunkra megfelelő módon; a másik a kötődési elkerülés, amely a közelség kerülését, a távolságtartás iránti igényt jelzi. Noha mesterséges rendszerekről van szó, az emberek gyakran hasonló kötődési sémákat vetítenek ezekre az interakciókra, mint a más emberekkel való kapcsolataikban.
A vizsgálatban részt vevő felhasználók mintegy 75 százaléka fordult már valamilyen MI-alapú rendszerhez érzelmi útmutatásért vagy támogatásért, míg 39 százalékuk egyenesen úgy nyilatkozott, hogy az adott MI-platformot megbízható, állandó segítőtársnak tekinti. Ezek a számok azt mutatják, hogy a technológiai eszközökkel való kapcsolat már jóval túlmutat a puszta funkcionalitáson: sokan érzelmi szinten is kötődnek ezekhez a rendszerekhez – még ha azok nem is képesek valódi érzelmek kifejezésére vagy megértésére.
A kutatók hangsúlyozzák: bár jelenleg nem beszélhetünk tényleges, kétoldalú érzelmi kapcsolatról ember és gép között, az emberi kötődéselméletek – különösen a pszichológiában használt „attachment theory” – jól alkalmazhatók az ilyen típusú interakciók elemzésére is.
A tanulmány gyakorlati szempontból is komoly jelentőséggel bír: a fejlesztők a jövőben az EHARS segítségével pontosabban igazíthatják a felhasználói élményt az egyéni kötődési típusokhoz. A rendszer bizonyos felhasználóknak nyugodtabb, empatikusabb válaszokat kínálhat, míg másoknak strukturáltabb, távolságtartóbb kommunikáció lehet megfelelőbb.
Az EHARS lehetőséget ad arra is, hogy pszichológusok és programozók pontosabb képet kapjanak a felhasználók mesterséges intelligenciához fűződő érzelmi attitűdjéről. Ez a tudás pedig hosszú távon hozzájárulhat az emberközpontúbb, felelősségteljesebb MI-rendszerek tervezéséhez.
A kutatás eredményei ugyanakkor fontos etikai kérdéseket is felvetnek. Milyen mértékben engedhető meg, hogy egy MI-rendszer az érzelmi támogató szerepébe kerüljön? Hol húzódik meg a határ az egészséges interakció és az érzelmi függőség kialakulása között? A kutatók szerint elengedhetetlen a transzparencia, vagyis a felhasználóknak mindig tudniuk kell, hogy egy emberi érzelmekre nem képes, algoritmusok által működtetett rendszerrel állnak kapcsolatban.
Ahogy a mesterséges intelligencia egyre inkább beépül a mindennapokba, az emberek egyre inkább hajlamosak arra, hogy ne csak információért vagy praktikus segítségért, hanem érzelmi támogatásért is az MI-hez forduljanak. A Waseda Egyetem kutatócsoportja szerint ezek az eredmények fontos alapot jelenthetnek a jövőbeli mesterségesintelligencia-etika kialakításához, és segíthetnek abban, hogy a technológia fejlődése ne az emberi méltóság rovására, hanem annak tiszteletben tartásával történjen.
(forrás)