A mesterséges intelligencia ugrásszerű fejlődése a közeljövőben lehetővé teszi, hogy az ember által vezérelt fegyverrendszerek mellett megjelenjenek a saját döntésekre képes, önállóan működő harceszközök, vagyis az autonóm fegyverek. Ugyanakkor sokan arra figyelmeztetnek, hogy ezzel könnyen kinyílhat Pandora szelencéje, mivel ezek a gyilkos robotoknak is nevezett eszközök – mondjuk egy hackertámadás miatt – akár kontrollálhatatlanná is válhatnak.

Fotó: shutterstock.com, illusztráció

A Tesla-alapító Elon Musk, Stephen Hawking, Noam Chomsky, Steve Wozniak – néhány jól ismert név arról a több mint száz, tudósokat, kutatókat, illetve robottechnológiával és mesterséges intelligenciával foglalkozó cégvezetőket egybegyűjtő listáról, akik nyílt levélben fordultak az ENSZ-hez, hogy felhívják a figyelmet az autonóm fegyverekben rejlő jövőbeli veszélyekre. Musk és társai nem kevesebbet állítanak, mint hogy az emberiség már csak egy karnyújtásra van a gondolkodó gépek megalkotásától, ez pedig elhozza a „háborúskodás harmadik forradalmát”. „A mesterséges intelligencia olyan ponthoz ért el, amikor az autonóm fegyverek kifejlesztése gyakorlatilag, ha nem is törvényesen, néhány év leforgása alatt konkretizálódhat. Az autonóm fegyvereket már úgy jellemzik, mint a hadiiparban zajló harmadik forradalmat, a lőpor és a nukleáris fegyverek után. Mint ahogy a vegyészek és a biológusok nagy része nem érdekelt a vegyi vagy a biológiai fegyverek létrehozásában, a mesterséges intelligencia kutatóinak nagy része sem érdekelt az intelligens fegyverek kifejlesztésében, és nem akarja, hogy mások, ilyen célokat követve kompromittáljanak egy egész szektort” – fogalmaztak a tudósok. Megszólalásukkal azt akarják elérni, hogy ezek a technológiák is felkerüljenek arra a listára, amely számos hagyományos fegyver, például a lángszóró alkalmazását tiltja egy 1980-as ENSZ-egyezmény óta. Más oldalról közelítette meg a témát Vlagyimir Putyin orosz elnök, aki a tudósok levelével nagyjából egy időben azt nyilatkozta, bárki is lesz a vezető ebben a szférában, a világ ura is lesz.


Az önállóság határai

Automata, azaz önműködő fegyverek fejlesztése évszázadok óta foglalkoztatja a tervezőket. Ezek az eszközök ma már a csúcstechnikát képviselik, elég csak az emberi beavatkozás nélkül is tökéletesen működő őrző-védő fegyverrendszerekre, vagy az automatikusan célzó tüzérségi fegyverekre gondolni. Elon Musk és társai azonban arra hívják fel a figyelmet, hogy az autonóm fegyverek egészen más szintet jelentenek majd. Képesek lesznek arra, hogy bármilyen emberi beavatkozás vagy közreműködés nélkül működve, a saját döntéseik alapján találjanak célpontot, és azt meg is semmisítsék.

Arról még zajlanak a viták, hogy hol lehetne meghúzni a határt a részben még ember által vezérelt, tulajdonképpen távirányítású eszközök, illetve az autonómok között, ugyanakkor kijelenthetjük, hogy az önálló harceszközök, igaz, kezdetleges formában, de már most is köztünk vannak. Az Egyesült Államok tengerészete már használja azt az Aegis ballisztikusrakéta-védelmi rendszert, amely emberi segítség nélkül veszi célba és semmisíti meg a hajókat támadó rakétákat. Az izraeli Harpy drón őrjáratai során radarjeleket keres, és ha észleli, már indítja is a bombát.

Persze ezek még nem a sci-fikből ismert, az emberiség elpusztítására törő halálosztó gépezetek, viszont korántsem költői kérdést feszegetett a Nemzetközi Vöröskereszt, amikor közleményében sürgette, hogy határozzák meg egységesen, meddig terjedhet egy autonóm fegyver önállósága, és milyen cselekményeknél lenne célszerű továbbra is emberi kézben hagyni a döntést. A fejlődés iránya jelenleg azt mutatja, hogy egyre rövidebb lesz a harci robotok döntési ideje az azonosítás és a támadás végrehajtása között, ugyanakkor növekszik az önállóságuk és a mobilitásuk, így kétségkívül nincs messze az az idő, amikor már bárhol (földön, vízen, levegőben) megjelenhetnek. Ezekhez a képességekhez pedig minden bizonnyal különböző tanuló algoritmusok is társulnak majd, amelyek kiszámíthatatlanná tehetik a fegyverrendszerek viselkedését. Éppen ezért a Vöröskereszt szigorú korlátozást javasol, például a feladatok és potenciális célpontok előzetes meghatározását, a működési terület és az alkalmazás idejének a korlátozását, illetve szorgalmazza a meghibásodás vagy hackertámadások elleni védelem garantálását, és a felelősségre vonhatóság kérdésének tisztázását. A szervezet nem minden ok nélkül aggódik, elvégre többek között az Egyesült Államokban már évek óta folyik az autonóm fegyverek fejlesztése, az amerikai hadsereg döntéshozói pedig még csak mostanában kezdtek azzal foglalkozni, hogy milyen következményekkel járhat a független döntéshozási képességgel rendelkező gépek megjelenése.


Kiiktatnák az emberi tényezőt

Az egyre okosabb fegyvereket tulajdonképpen az élőerő megóvása érdekében fejlesztik a hadseregek, ahol csak lehetőség van rá, ma már inkább drónokkal végeztetik el a piszkos vagy veszélyes munkát. Ugyanakkor ezeket távolról, gyakran más kontinensekről vezérlik, a monitor előtt meghozott döntések pedig gyakran vezetnek katasztrófákhoz, többször lehetett hallani a terroristáknak szánt rakétacsapások civil áldozatairól. Ebből következik az igény, hogy a gyors szituációkban gyakran hibázó emberek helyett mesterséges intelligencia döntsön arról, ki célpont és ki nem az. Az amerikai hadsereg fejlesztői ennek megfelelően arra képezik ki a drónokat vezérlő programot, hogy kiszúrja a tömegben a fegyvereseket. A teszteredmények ma még visszásak, előfordult már, hogy a drón egy épületet sem tudott megkülönböztetni egy fegyveres terroristától, de az is, hogy halálbiztosan szűrte ki a fegyvereseket a civilek közül, még olyan szituációkban is, amelyek a katonákat is gyakran megtévesztik.

A hatalmas elvárásoknak megfelelően a pénzt is számolatlanul öntik a projektbe, amely ma már a kutatások középpontjában áll. A tervek szerint egész arzenál épül majd fel autonóm fegyverekből, például akár az ember vezette vadászgépekkel együttműködő harci drónok, önállóan célpontot választó rakéták, vagy emberi személyzet nélkül tengeralattjárókra vadászó hadihajók – azaz már az első lépések lefedik a haderő teljes spektrumát. Az amerikai védelmi minisztérium nem kisebb elvárást támaszt az új fegyverekkel szemben, mint hogy azok újraértékeljék az emberi tényező szerepét a háborúban, és csökkentsék az emberveszteséget, illetve az ipari forradalomhoz hasonló mértékben forradalmasítsák a hadviselést. A tiltakozóknak pedig azt üzenik, azért van szükség az autonóm fegyverek fejlesztésére, mivel a rivális államok, azaz Kína és Oroszország is ezen dolgozik, márpedig ebben a versenyben lemaradni katasztrofális lenne. Ebből kiindulva a hadsereg berkein belül már nem is kérdés az, hogy el lehet-e indulni ebbe az irányba, csupán azon folyik még vita, hogy mekkora önállóságot kaphatnak a harcba küldendő gépek.


Ha hibázik a gép…

Régi toposz az öntudatra ébredő, majd az alkotói ellen forduló mesterséges intelligencia, ahogy a népszerű Terminátor-sorozatban is láthattuk. A tudósok egybehangzó véleménye az, hogy erre a valóságban nem kerülhet sor, ezt a szintet nem érhetik el a gépek, ugyanakkor érdekesség, hogy az amerikai Nemzetbiztonsági Hivatal fejlesztői a Terminátor-filmre emlékeztetve éppen SKYNET-nek nevezték el azt a programjukat, amely egy mintafelismerésre képes algoritmuson alapul, célja pedig, hogy mobiltelefonos adatok alapján kutassa fel a terrorszervezetek futárait. Ugyanakkor a szakértők máris arra hívják fel a figyelmet, hogy a program indulásakor rosszul képezték ki a gépet a terroristák azonosítására, így előfordult, hogy olyanokat is al-kaidásnak könyvelt el, akiknek valójában semmi közük nincs a terrorszervezethez. Ez ma még csupán kisebb kellemetlenség, mivel számos egyéb módszerrel is vizsgálják az információkat. A közeljövőben ugyanakkor eljöhet az idő, amikor készen áll majd a technikai háttér ahhoz, hogy az adatokat elemző algoritmust és a harci drónokat vezérlő programot egyetlen mesterséges intelligencia kapcsolja össze. Ez azt jelenti, hogy a gép végezné el a felderítést, valamint megtervezné és kivitelezné a támadást, minden emberi beavatkozás nélkül. Nem kell részletezni, hogy milyen katasztrófákhoz vezetne ebben az esetben egy programhiba, vagy egy esetleges hekkertámadás.

Van azonban egy másik potenciális veszélyforrás is, amelyre eddig még kevesen hívták fel a figyelmet. Autonóm fegyvert lényegében bármilyen hagyományos fegyverből össze lehet állítani, a jövőben megjelenhetnek a kézifegyverek szoftverrel feltuningolt változatai, amelyekkel azok is képesek lesznek halálpontosan célozni, akik azelőtt soha nem fogtak fegyvert. Így hamarosan a jelenleginél is nagyobb veszélyt jelent majd, ha rossz kezekbe kerül a fegyver.

Kovács Dániel