Alapjaiban alakíthatja át a nyilvánosságot a DeepFake. Az álhírek és a képszerkesztővel manipulált fotók már eddig is nagy károkat okoztak. A digitális technológia fejlődésével azonban hamarosan eljön a hamis hangfelvételek és videók kora. Ez pedig nemcsak bizalomvesztéshez, de politikai káoszhoz és erőszakhoz is vezethet.

Barack Obama és az arcmozdulatait digitálisan irányító, az ő hangján megszólaló színész a BuzzFeed hamis videóján

Képzeljük el, Egyiptomban videó kerül ki az internetre, amelyen egy kopt pap eléget egy Koránt. A keresztény vezetők azonnal cáfolják a felvétel hitelességét, de az emelkedő árak miatt egyébként is ingerlékeny muszlim tömegeket ez már nem akadályozza meg abban, hogy keresztények lincselésébe kezdjenek országszerte.

Vagy képzeljük el azt, hogy az Egyesült Államok egy szegénységtől, bűnözéstől és etnikai feszültségektől sújtott városrészében nyilvánosságra kerül egy videó, amelyen a helyi rendőrfőnök feketék meggyilkolásával viccelődik kollégáival. A rendőrség hiába magyarázkodik, a felhergelt tömegek megrohamozzák a rendőr­őrsöket, majd a fegyverek is eldördülnek.

De ne menjünk el ilyen messzire. Képzeljük el, hogy az interneten hangfelvétel jelenik meg, amelyen Orbán Viktor titkos megbeszélést folytat Benkő Tibor hadügyminiszterrel Kárpátalja lerohanásáról. A magyar illetékesek hiába adnak ki közleményt, hogy a felvétel hamis, az futótűzként terjed el ukrán nacionalista körökben, a rákövetkező éjszaka pedig a kelet-ukrajnai harcokban edzett milicisták rátámadnak a beregszászi magyarokra…

A DeepFake egyre közeledő világában mindez már nem elképzelhetetlen. A szó, amely tükörfordításban „mélyhamist” jelent, a gépi tanuló algoritmusok kapcsán használt DeepLearning (mélytanulás) és az elmúlt években közismertté vált Fake­News (álhír) kifejezésekből tevődik össze.

Maga a technika nem új. A Generative Adversarial Network (GAN) nevű gépi tanulási technikát egy kaliforniai egyetemista, Ian Goodfellow fejlesztette ki 2014-ben. A GAN újdonsága abban állt, hogy létező adatbázisokat felhasználva képes volt új adatot generálni. A gyakorlatban ez azt jelentette, hogy egy emberről készített korábbi fotók alapján képes volt egy teljesen új fotót generálni ugyanarról az emberről. 2017 végéig a technikát elsősorban a mesterséges intelligencia kutatói használták fel. Ekkor azonban feltűnt az interneten egy ismeretlen felhasználó, aki a Google ingyenes gépi tanulási szoftvere, a TensorFlow segítségével gyártott pornográf videókat tett közzé, amelyeken hírességek arcát montírozta a testekre. Nem sokkal később pedig ingyenesen letölthetővé vált a FakeApp nevű szoftver, amelynek segítségével már amatőrök is előállíthatnak hasonló hamis tartalmakat.

A fejlesztések más irányból is zajlottak. 2018 augusztusában a német Max Planck Informatikai Intézet olyan programot írt, amellyel a géphez kötött kamera előtt álló személy saját arcmozgásaival irányíthatja egy másik ember képernyőn megjelenő arcának mozdulatait. Noha a fejlesztők bevallása szerint a technikát a jövőben külföldi filmek szinkronjához, valamint történelmi oktatóvideókhoz kívánják felhasználni, a visszaélés lehetőségét felesleges bizonygatni.

A DeepFake elsősorban a közösségi médiumok felhasználóinak szokásai miatt veszélyes. Az információözönben mára személyre szabott digitális visszhangkamrák alakultak ki, a felhasználók pedig az ellenvéleménnyel egyre kevésbé, hanem csak a sajátjukkal megegyező véleményekkel találkoznak. A megbízhatónak vélt ismerősöktől érkező híreket pedig sokszor gondolkodás nélkül elhiszik és tovább is osztják.

A Facebookon, Twitteren és Instagramon már se szeri, se száma a híres emberek, politikusok portréira felmon­tí­rozott hamis idézeteknek, amelyeket a felhasználók mégis hitelesnek tartanak, hiszen az idézet összeegyeztethető az adott emberről alkotott elképzelésükkel. Képzeljük el, hogy mi lesz, amikor tömegével kezdenek megjelenni a hamisított hang- és videófelvételek is!

Valójában már nem is kell a fantáziánkra hagyatkoznunk: 2018 májusában a belga Facebook- és Twitter-fiókokon futótűzként terjedt el egy felvétel, amelyen Donald Trump sürgeti Belgiumot a környezetvédelmi egyezmények felmondására, mondván, ezt már ő is megtette. A hamis videót egy belga politikai párt, a Socialistische Partij Anders készítette, hogy ezzel hívja fel a közvélemény figyelmét a környezetvédelem fontosságára. Noha az alkotók egyértelművé tették, hogy a képsorok hamisak, mégis több ezren voltak, akik azt hitelesként osztották meg, a közösségi médián pedig Trump-ellenes gyűlölethullám söpört végig.

Hogy az álhíreknek milyen végzetes hatásuk lehet, már szintén kiderült. 2018 tavaszán és nyarán közel harminc ember halálát okozták különféle lincselések Indiában, miután a Whatsappon valakik valódi felvételként kezdtek terjeszteni egy pakisztáni felvilágosító kampányvideót, amelyen motorosok gyerekeket rabolnak el. Júniusban Tripura tartományban a hatóságok csak az internet teljes lekapcsolásával tudták elejét venni az erőszak elterjedésének. 2018 novemberben pedig a mexikói Acatlán városában a tömeg élve égetett el két embert, miután ugyancsak a Whatsappon álhírek kezdtek terjedni gyermekekre vadászó szervkereskedőkről. Nem kell sok fantázia ahhoz, hogy elképzeljük, mit hoznak majd a hamis videók. Szerencsére DeepFake videókat egyelőre még nem készíthet bárki, hiszen ahhoz szükség van némi programozói ismeretre. A technika fejlődésével azonban hamarosan bárki számára elérhetővé válik majd a lehetőség. Gondoljunk csak arra, hogy már ma is létezik olyan ingyenesen letölthető mobilalkalmazás, amely Barack Obama vagy Donald Trump hangján olvassa fel a begépelt szövegeket.

A körültekintően pozicionált és ügyesen időzített DeepFake videók nagy pusztításra lehetnek képesek. Ha például az Iszlám Állam hamis videót hozna nyilvánosságra, amelyen amerikai katonák erőszakolnak meg egy muszlim nőt valahol Irakban vagy Afganisztánban, a cáfolat aligha érne célba. A videó célközönsége, a még nem radikalizálódott tömeg ugyanis eleve bizalmatlan az amerikaiakkal szemben, így nem hinné el a mentegetőzést. Mivel pedig a nyugati demokráciák polgárai is egyre kevésbé bíznak az elitjükben, a kanócot akár Európában is meggyújthatják a helyi szélsőségesek, vagy ellenséges titkosszolgálatok. Vagy például egy kiélezett választás előestéjén kihozott, valamely politikust lejárató DeepFake videó például könnyen elmozdíthatja a mérleg nyelvét.

A veszélyt egyre többen látják. 2018 áprilisában, miután a BuzzFeed internetes hírportál társadalmi kísérletként hamis videót adott ki, amelyen Barack Obama vulgáris szavakkal osztja ki Donald Trumpot, három kongresszusi képviselő nyílt levelet intézett a nemzetbiztonság igazgatójához, amelyben a DeepFake elleni fellépést sürgették.

De már a technika világa is dolgozik a megoldásokon. Tavaly júniusban az amerikai Albany Egyetem kutatói egy algoritmust hoztak létre, amely felismeri a hamisított videókat. Mivel azonban a gépi tanulási technológia rohamosan fejlődik, félő, hogy – miként a biztonsági cégek és a hackerek esetében ezt már megszokhattuk – a jófiúk itt is csak az események után fognak kullogni. A másik megoldás az lehet, hogy a közösségi és tartalommegosztó portálok a jövőben csak olyan digitális vízjellel ellátott videók és hangfelvételek megosztását engedélyezik, amelyek visszakövethetővé teszik a készítőket. Ennek a jogi kivitelezése azonban nehézkes, hiszen a közösségi oldalak joggal tarthatnak attól, hogy a cenzúrával felhasználókat veszítenek a konkurencia javára. Ráadásul míg az Európai Unió és az Egyesült Államok kormányai képesek lehetnek nyomást gyakorolni a vállalatokra, addig a háborús zónákban és bukott államokban, ahol az efféle anyagok a legnagyobb kárt tudják okozni, erre aligha van esély.

A legvalószínűbbnek az látszik, hogy az emberiségnek a jövőben valamilyen formában meg kell tanulnia együtt élni a DeepFake-kel. Az immunitás azonban újabb veszélyeket rejt. Képzeljük el, hogy a DeepFake világában egy valódi hangfelvétel kerül ki egy vezető politikusról, amint épp kenőpénz átvételéről tárgyal az alvilág egyik emberével, vagy érzékeny államtitkokat szivárogtat ki egy idegen ország titkosszolgálatának. A kompromittált személynek elég DeepFake-et kiáltania, az adott politikai oldal vissz­hangkamrájába zárt szavazók pedig el is hiszik majd a védekezést. A DeepFake világában nem lesznek már sem őszödi beszédek, sem Zuschlag-ügyek, az igaz és a hamis közti határ pedig végképp elmosódhat.

Képzeljük el, Egyiptomban videó kerül ki az internetre, amelyen egy kopt pap eléget egy Koránt. A keresztény vezetők azonnal cáfolják a felvétel hitelességét, de az emelkedő árak miatt egyébként is ingerlékeny muszlim tömegeket ez már nem akadályozza meg abban, hogy keresztények lincselésébe kezdjenek országszerte.

Vagy képzeljük el azt, hogy az Egyesült Államok egy szegénységtől, bűnözéstől és etnikai feszültségektől sújtott városrészében nyilvánosságra kerül egy videó, amelyen a helyi rendőrfőnök feketék meggyilkolásával viccelődik kollégáival. A rendőrség hiába magyarázkodik, a felhergelt tömegek megrohamozzák a rendőr­őrsöket, majd a fegyverek is eldördülnek.

De ne menjünk el ilyen messzire. Képzeljük el, hogy az interneten hangfelvétel jelenik meg, amelyen Orbán Viktor titkos megbeszélést folytat Benkő Tibor hadügyminiszterrel Kárpátalja lerohanásáról. A magyar illetékesek hiába adnak ki közleményt, hogy a felvétel hamis, az futótűzként terjed el ukrán nacionalista körökben, a rákövetkező éjszaka pedig a kelet-ukrajnai harcokban edzett milicisták rátámadnak a beregszászi magyarokra…

A DeepFake egyre közeledő világában mindez már nem elképzelhetetlen. A szó, amely tükörfordításban „mélyhamist” jelent, a gépi tanuló algoritmusok kapcsán használt DeepLearning (mélytanulás) és az elmúlt években közismertté vált Fake­News (álhír) kifejezésekből tevődik össze.

Maga a technika nem új. A Generative Adversarial Network (GAN) nevű gépi tanulási technikát egy kaliforniai egyetemista, Ian Goodfellow fejlesztette ki 2014-ben. A GAN újdonsága abban állt, hogy létező adatbázisokat felhasználva képes volt új adatot generálni. A gyakorlatban ez azt jelentette, hogy egy emberről készített korábbi fotók alapján képes volt egy teljesen új fotót generálni ugyanarról az emberről. 2017 végéig a technikát elsősorban a mesterséges intelligencia kutatói használták fel. Ekkor azonban feltűnt az interneten egy ismeretlen felhasználó, aki a Google ingyenes gépi tanulási szoftvere, a TensorFlow segítségével gyártott pornográf videókat tett közzé, amelyeken hírességek arcát montírozta a testekre. Nem sokkal később pedig ingyenesen letölthetővé vált a FakeApp nevű szoftver, amelynek segítségével már amatőrök is előállíthatnak hasonló hamis tartalmakat.

A fejlesztések más irányból is zajlottak. 2018 augusztusában a német Max Planck Informatikai Intézet olyan programot írt, amellyel a géphez kötött kamera előtt álló személy saját arcmozgásaival irányíthatja egy másik ember képernyőn megjelenő arcának mozdulatait. Noha a fejlesztők bevallása szerint a technikát a jövőben külföldi filmek szinkronjához, valamint történelmi oktatóvideókhoz kívánják felhasználni, a visszaélés lehetőségét felesleges bizonygatni.

A DeepFake elsősorban a közösségi médiumok felhasználóinak szokásai miatt veszélyes. Az információözönben mára személyre szabott digitális visszhangkamrák alakultak ki, a felhasználók pedig az ellenvéleménnyel egyre kevésbé, hanem csak a sajátjukkal megegyező véleményekkel találkoznak. A megbízhatónak vélt ismerősöktől érkező híreket pedig sokszor gondolkodás nélkül elhiszik és tovább is osztják.

A Facebookon, Twitteren és Instagramon már se szeri, se száma a híres emberek, politikusok portréira felmon­tí­rozott hamis idézeteknek, amelyeket a felhasználók mégis hitelesnek tartanak, hiszen az idézet összeegyeztethető az adott emberről alkotott elképzelésükkel. Képzeljük el, hogy mi lesz, amikor tömegével kezdenek megjelenni a hamisított hang- és videófelvételek is!

Valójában már nem is kell a fantáziánkra hagyatkoznunk: 2018 májusában a belga Facebook- és Twitter-fiókokon futótűzként terjedt el egy felvétel, amelyen Donald Trump sürgeti Belgiumot a környezetvédelmi egyezmények felmondására, mondván, ezt már ő is megtette. A hamis videót egy belga politikai párt, a Socialistische Partij Anders készítette, hogy ezzel hívja fel a közvélemény figyelmét a környezetvédelem fontosságára. Noha az alkotók egyértelművé tették, hogy a képsorok hamisak, mégis több ezren voltak, akik azt hitelesként osztották meg, a közösségi médián pedig Trump-ellenes gyűlölethullám söpört végig.

Hogy az álhíreknek milyen végzetes hatásuk lehet, már szintén kiderült. 2018 tavaszán és nyarán közel harminc ember halálát okozták különféle lincselések Indiában, miután a Whatsappon valakik valódi felvételként kezdtek terjeszteni egy pakisztáni felvilágosító kampányvideót, amelyen motorosok gyerekeket rabolnak el. Júniusban Tripura tartományban a hatóságok csak az internet teljes lekapcsolásával tudták elejét venni az erőszak elterjedésének. 2018 novemberben pedig a mexikói Acatlán városában a tömeg élve égetett el két embert, miután ugyancsak a Whatsappon álhírek kezdtek terjedni gyermekekre vadászó szervkereskedőkről. Nem kell sok fantázia ahhoz, hogy elképzeljük, mit hoznak majd a hamis videók. Szerencsére DeepFake videókat egyelőre még nem készíthet bárki, hiszen ahhoz szükség van némi programozói ismeretre. A technika fejlődésével azonban hamarosan bárki számára elérhetővé válik majd a lehetőség. Gondoljunk csak arra, hogy már ma is létezik olyan ingyenesen letölthető mobilalkalmazás, amely Barack Obama vagy Donald Trump hangján olvassa fel a begépelt szövegeket.

A körültekintően pozicionált és ügyesen időzített DeepFake videók nagy pusztításra lehetnek képesek. Ha például az Iszlám Állam hamis videót hozna nyilvánosságra, amelyen amerikai katonák erőszakolnak meg egy muszlim nőt valahol Irakban vagy Afganisztánban, a cáfolat aligha érne célba. A videó célközönsége, a még nem radikalizálódott tömeg ugyanis eleve bizalmatlan az amerikaiakkal szemben, így nem hinné el a mentegetőzést. Mivel pedig a nyugati demokráciák polgárai is egyre kevésbé bíznak az elitjükben, a kanócot akár Európában is meggyújthatják a helyi szélsőségesek, vagy ellenséges titkosszolgálatok. Vagy például egy kiélezett választás előestéjén kihozott, valamely politikust lejárató DeepFake videó például könnyen elmozdíthatja a mérleg nyelvét.

A veszélyt egyre többen látják. 2018 áprilisában, miután a BuzzFeed internetes hírportál társadalmi kísérletként hamis videót adott ki, amelyen Barack Obama vulgáris szavakkal osztja ki Donald Trumpot, három kongresszusi képviselő nyílt levelet intézett a nemzetbiztonság igazgatójához, amelyben a DeepFake elleni fellépést sürgették.

De már a technika világa is dolgozik a megoldásokon. Tavaly júniusban az amerikai Albany Egyetem kutatói egy algoritmust hoztak létre, amely felismeri a hamisított videókat. Mivel azonban a gépi tanulási technológia rohamosan fejlődik, félő, hogy – miként a biztonsági cégek és a hackerek esetében ezt már megszokhattuk – a jófiúk itt is csak az események után fognak kullogni. A másik megoldás az lehet, hogy a közösségi és tartalommegosztó portálok a jövőben csak olyan digitális vízjellel ellátott videók és hangfelvételek megosztását engedélyezik, amelyek visszakövethetővé teszik a készítőket. Ennek a jogi kivitelezése azonban nehézkes, hiszen a közösségi oldalak joggal tarthatnak attól, hogy a cenzúrával felhasználókat veszítenek a konkurencia javára. Ráadásul míg az Európai Unió és az Egyesült Államok kormányai képesek lehetnek nyomást gyakorolni a vállalatokra, addig a háborús zónákban és bukott államokban, ahol az efféle anyagok a legnagyobb kárt tudják okozni, erre aligha van esély.

A legvalószínűbbnek az látszik, hogy az emberiségnek a jövőben valamilyen formában meg kell tanulnia együtt élni a DeepFake-kel. Az immunitás azonban újabb veszélyeket rejt. Képzeljük el, hogy a DeepFake világában egy valódi hangfelvétel kerül ki egy vezető politikusról, amint épp kenőpénz átvételéről tárgyal az alvilág egyik emberével, vagy érzékeny államtitkokat szivárogtat ki egy idegen ország titkosszolgálatának. A kompromittált személynek elég DeepFake-et kiáltania, az adott politikai oldal vissz­hangkamrájába zárt szavazók pedig el is hiszik majd a védekezést. A DeepFake világában nem lesznek már sem őszödi beszédek, sem Zuschlag-ügyek, az igaz és a hamis közti határ pedig végképp elmosódhat.