Fotó: shutterstock.com
Hirdetés

Az EHARS (Experiences in Human–AI Relationships Scale) névre keresztelt skála két fő dimenzióban méri az MI-hez fűződő érzelmi viszonyt: az egyik a kötődési szorongás, vagyis az erős érzelmi visszaigazolás iránti igény és az attól való félelem, hogy a „másik fél” (esetünkben az MI) nem válaszol számunkra megfelelő módon; a másik a kötődési elkerülés, amely a közelség kerülését, a távolságtartás iránti igényt jelzi. Noha mesterséges rendszerekről van szó, az emberek gyakran hasonló kötődési sémákat vetítenek ezekre az interakciókra, mint a más emberekkel való kapcsolataikban.

A vizsgálatban részt vevő felhasználók mintegy 75 százaléka fordult már valamilyen MI-alapú rendszerhez érzelmi útmutatásért vagy támogatásért, míg 39 százalékuk egyenesen úgy nyilatkozott, hogy az adott MI-platformot megbízható, állandó segítőtársnak tekinti. Ezek a számok azt mutatják, hogy a technológiai eszközökkel való kapcsolat már jóval túlmutat a puszta funkcionalitáson: sokan érzelmi szinten is kötődnek ezekhez a rendszerekhez – még ha azok nem is képesek valódi érzelmek kifejezésére vagy megértésére.

A kutatók hangsúlyozzák: bár jelenleg nem beszélhetünk tényleges, kétoldalú érzelmi kapcsolatról ember és gép között, az emberi kötődéselméletek – különösen a pszichológiában használt „attachment theory” – jól alkalmazhatók az ilyen típusú interakciók elemzésére is.

Korábban írtuk

A tanulmány gyakorlati szempontból is komoly jelentőséggel bír: a fejlesztők a jövőben az EHARS segítségével pontosabban igazíthatják a felhasználói élményt az egyéni kötődési típusokhoz. A rendszer bizonyos felhasználóknak nyugodtabb, empatikusabb válaszokat kínálhat, míg másoknak strukturáltabb, távolságtartóbb kommunikáció lehet megfelelőbb.

Az EHARS lehetőséget ad arra is, hogy pszichológusok és programozók pontosabb képet kapjanak a felhasználók mesterséges intelligenciához fűződő érzelmi attitűdjéről. Ez a tudás pedig hosszú távon hozzájárulhat az emberközpontúbb, felelősségteljesebb MI-rendszerek tervezéséhez.

A kutatás eredményei ugyanakkor fontos etikai kérdéseket is felvetnek. Milyen mértékben engedhető meg, hogy egy MI-rendszer az érzelmi támogató szerepébe kerüljön? Hol húzódik meg a határ az egészséges interakció és az érzelmi függőség kialakulása között? A kutatók szerint elengedhetetlen a transzparencia, vagyis a felhasználóknak mindig tudniuk kell, hogy egy emberi érzelmekre nem képes, algoritmusok által működtetett rendszerrel állnak kapcsolatban.

Ahogy a mesterséges intelligencia egyre inkább beépül a mindennapokba, az emberek egyre inkább hajlamosak arra, hogy ne csak információért vagy praktikus segítségért, hanem érzelmi támogatásért is az MI-hez forduljanak. A Waseda Egyetem kutatócsoportja szerint ezek az eredmények fontos alapot jelenthetnek a jövőbeli mesterségesintelligencia-etika kialakításához, és segíthetnek abban, hogy a technológia fejlődése ne az emberi méltóság rovására, hanem annak tiszteletben tartásával történjen.

(forrás)