Valótlan valóság (deepfake)

Az körülöttünk lévő környezet, a valóság megragadása, megörökítése mindig is foglalkoztatta az embereket. Először primitív rajzokon, majd művészi festményeken, végül fényképeken. A fotóipar fejlődése mellett elindult a fotómanipuláció ipara is. Az első fényképet 1826-ban készítették, az első retusálási kísérletek pedig az 1860-as években indultak útnak. Kezdetben családi fotókról lemaradt rokonokat illesztettek a képekre, majd totalitárius rezsim időszakában a történelem megváltoztatása, a valóság átírása lett a fő szempont. A reklám- és médiaipar fejlődésével pedig a címlapfotókon, hirdetési plakátokon, reklám felületén szépítettek az ügyes kezű technikusok és a különböző konteó magazinok is előszeretettel publikálták a kétes eljárásokkal készült képeket földönkívüliekről, természetfeletti jelenségekről, szörnyekről. 1990-ben megjelent az Adobe Photoshop első változata, az azóta eltelt 30 év retusálási technikái évről évre hoztak valamilyen újítást. Felismerési képességünk a manipulált képek terén nem javult, az eljárás viszont, ahogyan befolyásoljuk a képeket igen. Sőt, az egykori „fotosoppolt” képek varázsa már a múlté, megszoktuk, hogy nap, mint találkozunk velük. Elfogadtuk, hogy befolyásolnak minket a reklámcégek, a divatmagazinok, a szépség- és a szórakoztatóipar. Vajon a valóság befolyásolását megcélzó új törekvések – a deepfake technológia – is hasonló apátiát váltanak majd ki az emberekből és egyszerűen hozzászokunk ahhoz, hogy semmi sem biztos, amit látunk, hallunk, érzékelünk? Nagyon korai lenne még egyoldalú álláspontra jutni a kérdést illetően, ezért nézzük meg, hogy mivel állunk szemben, amikor az emberi megtévesztés újabb mérföldkövéhez érkezünk.

Mi a deepfake?

Legegyszerűbben úgy lehetne megfogalmazni, hogy egy mélyelemzési és -tanulási képességekkel rendelkező algoritmus hálózat (deep), egy mesterséges intelligencia (MI vagy AI), ami emberi mértékkel számolva elképesztő mennyiségű álló vagy mozgóképet, audiovizuális anyagot képes feldolgozni és hamis, valótlan, áltartalmat létrehozni (fake). A technika és a technológia, így az MI rohamos léptékű fejlődésének köszönhetően nagyobb adatmennyiség átfogóbb elemzésére, pontosabb tartalomgyártásra képes rövidebb időn belül. Ami régebben több hetes munka volt egy csúcskategóriás számítógépnek, azt ma már a zsebünkben lévő okostelefon játszi könnyedséggel meg tudja valósítani. Természetesen minél élethűbb deepfaket szeretnénk létrehozni, annál komolyabb számítástechnikai eszközöknek kell rendelkezésünkre állniuk. A legegyszerűbb képszerkesztő programoktól, melyek segítségével arcunkat egy másik ember vagy akár állat testére tudjuk montírozni, csevegőalkalmazások ártatlan és szórakoztató, valós idejű arcfilter-kiterjesztésén át, a hírességek hamisított videóin keresztül, a politikus-álvideókig létrehozott tartalmak mind a deepfake-nek köszönhetően jöhettek létre.

Bár a folyamat nagyobb része a számítógép, illetve az arra szakosított program, mesterséges intelligencia munkája, a kreatív feladatok megvalósítása továbbra is emberi jelenlétet igényel. A téma okán elengedhetetlen vizuális példákat hozni, hogy jobban meg lehessen érteni miről is van szó. Ugyanis a deepfake videók többet jelentenek, mint egy egyszerű képszerkesztővel elvégzett „másolás-beillesztés” művelet. A legjobban talán Barack Obama fogalmazta meg, hogy miért is jelent veszélyt deepfake az információs korban, amikor rengeteg dezinformatív hír árasztja el a világhálót. De nem csak az Amerikai Egyesült Államok egykori elnöke szólalt fel, hanem Hollywood egyik legkeresettebb színésze, Tom Cruise is részt vesz egy projektben, ami segít felismerni a hamisított videókat.

A deepfake elnevezés először a Reddit fórumain tűnt fel 2017-ben és eredetileg a MI által gyártott, vicces, szórakoztató videókat jelölték vele. Nem kellett sok, hogy valami más szintre lépjen a trend. A következő megálló manipulált felvételek világában a pornográf tartalmú képek, majd videók lettek. Híres Hollywood-i és dél-koreai színésznők arca került olyan felnőtt filmes tartalmakra, amelyekhez sosem volt közük. Jó bulvártéma, a fogyasztók vágyait kielégítő tartalom és egy új zsáner alakult ki a fogyasztók körében.  A posztigazság világában pedig egyáltalán nem meglepő, hogy egy újabb dezinformációs fegyverrel bővült az álhírek arzenálja. A technológia segítségével kijelentéseket lehet politikusok szájába adni, melyek sosem hangzottak el tőlük, kínos, megkérdőjelezhető szituációt kitalálni, amit politikai célokra fel lehet használni. A trendek viszont továbbra is azt mutatják, hogy a pornográf tartalomra van a leginkább kereslet a deepfake világában. A Deeptrace cég adatai szerint – mely a deepfake tartalmak felismerésével és monitorozásával foglalkozik – az ilyen videók mintegy 96%-a szexuális tartalommal rendelkezett és szinte kizárólag női hírességek esnek áldozatul, lesznek célpontok. A közszereplők karrierje pillanatok alatt kettétörhet egy hamisított kép, videó vagy hangfájl miatt. A fogyasztók nem fogják ellenőrizni annak hitelességét és a közösségi médiában hirtelen szárnyra kaphatnak a deepfake által létrehozott virális tartalmak. Így a jövő nagy kihívásai közé tartozhat olyan válságkommunikációs sablonok kialakítása, amelyek megoldással szolgálnak vagy legalábbis mérsékelni képesek a manipulált felvételek által kiváltott káoszt.

Látom, hallom, léteznie kell

A digitális világban manipulálható, hamisítható szinte bármi, csak egy jól megragadott koncepció kell. Nemcsak teljesen statikus arccsere valósítható meg, hanem a mimika, a szájmozgás, a hang, a közvetlen környezet és a háttér, sőt még az identitás is. Ha látunk valamiről vagy valakiről egy képet, akkor feltételezzük, hogy valós entitással állunk szemben, léteznie kell vagy legalábbis valamikor létezett. A deepfakenek köszönhetően viszont már ebben sem lehetünk biztosak. Ha nem a hagyományos, biológiai szempontból értelmezzük a létezés tényét vagy kérdését és külön tárgyaljuk a digitális lét fogalmát, akkor minden nullából és egyesekből álló tartalom létezik – igaz, csak az online világban. Olyan állatokról oszthatunk meg képeket, például ezekről a macskákról, vagy olyan emberek képeit láthatjuk, amelyek sosem születtek meg a szó hagyományos értelmében. A mesterséges intelligencia a kreált képeknek identitást adhat, profilt hozhat létre a közösségi oldalakon embereknek, akik sosem léteztek. Katie Jones és Maisly Kinsley LinkdIn profiljai pontosan ilyenek voltak.  Az MI által megalkotott személyes digitális lábnyommal rendelkeztek, voltak ismerőseik, munkahelyük, bejegyzéseket osztottak meg, tehát teljes úgy viselkedtek, mint bármelyik másik, átlagos felhasználó – attól az apróságtól eltekintve, hogy nem voltak valósak.

Felmerülhet a kérdés, hogy milyen adatokból vagy egyáltalán hogyan és honnan fér hozzá bármilyen program a tanulásához szükséges képekhez, videókhoz, hanganyaghoz. A válasz roppant egyszerű: a felhasználók nyújtják az ehhez szükséges információkat. Az AI-nak adatokra, leginkább különböző megvilágításból és kameraállásból elkészített képekre van szüksége ahhoz, hogy minél pontosabb, simább, hibátlan videót tudjon létrehozni az algoritmus. A Google Fotó online felhő-alapú képtárhelyére a felhasználók 2015-2016-ban mintegy 24 milliárd fotót töltöttek fel szelfi (selfie) címkével.  Ezekhez bárki hozzáférhet, a mesterséges intelligencia segítségével a programozók annyi képhez férnek hozzá, amennyihez csak szeretnének. De nem csak az önarcképes fotók, hanem a közvetlen környezet, képkollázsok, rövid képi animációk (gif) is jelentősen segítik a gépeket az adaptív tanulásban. A technológia még messze nem tökéletes, főleg videók esetében lehet észre venni apróbb hibákat. A szakértők véleménye szerint a szem mozgását a legnehezebb mintázni – leginkább a pislogást; jelenleg még a legkifinomultabb deepfake videókban is láthatunk természetellenes érzetet kiváltó szemmozgásokat. Az AI finom és sok tényezős változókat – haj, fénytükröződés, csillogás – egyelőre még nehezen tudja replikálni.  A gyengébb kivitelezésű mozgóképek esetében pedig a montírozott arc gyakran elcsúszik, elmozdul a fejtől, vagy a mimikák keltenek bennünk olyan érzést, hogy valami itt nincs rendben.

A videómanipulációk külön kategóriáját képzik a hang alávágások. Itt az algoritmus feladata, hogy megtalálja a tökéletes vagy ahhoz közel álló szájmozgást és azt párosítani tudja bármilyen hangfelvétellel. A megfelelő hangszín beállítása és további finomhangolás után az MI képes szó szerint bárki szájába adni bármit. Azonban ahogy az arc cserés videóknál, az eljárás itt sem tökéletes: odafigyeléssel, a mondanivaló témája és a mimika, gesztikulációk közötti eltérés rávilágításával rá fogunk jönni, hogy itt bizony egy manipulált videóval van dolgunk. Összességében tehát nem kell szakavatott médiagurunak lennünk, hogy ki tudjuk szúrni a hamis videókat, de azért ne ringassuk magunkat a megnyugvás langymeleg közegében. A deepfake tartalmak pár év alatt hatalmas fejlődésen mentek át, egyfelől az egyre erősebb számítástechnikának, másfelől az ezzel párhuzamosan fejlődő mesterséges intelligenciának és a virtuális valóság kiterjesztéseknek köszönhetően.

Ne higgy el mindent, amit látsz

Az aktuális deepfake trendek celebritásokat, közismert szereplőket, botrányhősöket és pornószínészeket céloznak meg – ezen belül is leginkább nőket – hiszen jelenleg ebben van a pénz, ez hoz hasznot. Viszont a deepfake termékek ugyanabba a dezinformációs közegbe tartoznak, mint az álhírek. A fake news megkerülhetetlen és kiirthatatlan része lett a politikai-közéleti diskurzusoknak, a választási kampányoknak. A társadalom megosztottsága egyre inkább erősödik és a szekértáborok áthidalása szinte már lehetetlenné vált: elég, ha a választópolgár meglát egy számára unszimpatikus, nem kedvelt, sőt egyenesen gyűlölt médiumot, közéleti személyt vagy politikust, a racionális gondolkodása abban a pillanatban átadja helyét az érzelmeknek. Mindehhez adjuk hozzá, hogy ma már nem csak szöveg formájában lehet befogadni és továbbítani a dezinformációt, hanem vizuálisan is el lehet vele érni a célközönséget. Szerencsére vannak már lépések annak érdekében, hogy kiszűrjék a káros deepfake tartalmakat az Internet hálójából. A deeptracelabs.com az első „deepfake-antivírus”, ami figyelemmel kíséri a káros tartalmakat. Ezek száma 2019-ben már több, mint 14.000 videóra emelkedett. A deepfakedetectionchallenge.ai a Facebook, az Amazon és a Microsoft közös kezdeményezése, mely egy közösségi kihívás annak érdekében, hogy minél több AI által manipulált technológiát felismerjenek a fogyasztók. Ezen felül a Twitter, a TikTok és a Facebook is közleményt adott ki, amelyben a deepfake videókat a félrevezető tájékoztatás kategóriájába sorolták – bár a Facebook eddigi regulációs eljárásait figyelembe véve nem kell túl nagy szigorításra számítanunk a közösségi média óriás platformján. Számos kutatás is igyekszik a mesterséges intelligencia természetét feltárni. Azonban ezek a kezdeményezések pár esetben igencsak megkérdőjelezhetővé válnak. Főleg a SenseTime esetében: a kínai vállalat fejlesztette ki azt az algoritmust, aminek segítségével a kínai állam megfigyeli a muszlim kisebbséget.

A deepfake jelenlég még gyerekcipőben jár és bár szórakoztató változatai már így is bejárt a világháló minden szegletét, egyáltalán nem szabad félvállról kezelni az ártó, káros szándékokat a folyamatok mögött. A legnagyobb probléma akkor fogja elérni civilizációnkat, amikor semmilyen módon nem tudunk különbséget tenni valós és a valótlan között.  Érzékszerveink és kognitív funkcióink nincsenek arra felkészülve, hogy a folyamatos decepció ingere érje őket. Amit látunk és hallunk is, az megkérdőjelezhetetlenné válik számunkra. A deepfake erőssége ebben rejlik: az alapvető értelmezési közegre hat, amiben az emberi gondolkodásunk zajlik, már évszázadok óta. A természetes evolúció során nem találkoztunk ehhez hasonló kihívásokkal, így a jövő nagy kérdése, hogy egyáltalán tudunk-e majd alkalmazkodni az egyre precízebb manipulációs struktúrákhoz.

Szitás Péter

Témavezető: Kiss Mária Rita

Forrásjegyzék

BBC My World

Bodnár Zsolt

Ian Sample

James Vincent

John Conwell

Katyanna Quach

Matt Binder

Samantha Cole

Samantha Cole

2020. január 31.