Deepfake - a manipuláció következő szintje

Deepfake - a manipuláció következő szintje

Villányi Gergő | 2019.07.23 | Olvasási idő: 4 perc

Az Oxford szótár 2016-ban az év szavának az igazság utáni vagy valóság utáni (post-truth) kifejezést választotta, ami azt jelenti, hogy az objektív valóság helyett immár a vélemények és az érzelmi színezetű nézőpontok alakítják az életünket, gyakran a tényeket is felülírva. Ez nem csak az összeesküvés elméleteknek és káros hatású mozgalmaknak ad jó táptalajt, de azt a kérdést is felveti, hogy mit hiszünk el, mit tartunk valóságosnak a ránk zúduló online információcunamiból.

Sem a szemünknek, sem a fülünknek nem hihetünk?

Azt már megtanultuk, sőt, talán gyerekeinknek is megtanítottuk, hogy a fotómanipuláció vagyis a „photoshoppolt”, „filterezett” képek mindenkinek a szebbik arcát próbálják mutatni. Ám ha „megszalad” a képi manipuláció – ami már az internet előtt is létezett -, hihetetlen, nevetséges vagy a valóságot elferdítő alkotások is létrejöhetnek. Ezért, jogosan, kételkedni kezdtünk, fenntartásokkal fogadjuk a fotókon látottakat.

Deepfake - a manipuláció következő szintje
A deepfake egy lépéssel tovább megy. Nemcsak a szemünknek, de a fülünknek sem hihetünk. A manipuláció ezen formájában mesterséges intelligenciát és gépi mélytanulást (deep learning) használnak a programok és hamis (fake) tartalmat állítanak elő. Innen jön a deepfake elnevezés is.

Ez azt jelenti, hogy egyszerű, különböző helyzetekben, különféle arckifejezéseket mutató fotókból, nyilvános beszéd során vagy interjúhelyzetben készült videókból olyan új hang- és képtartalmat képesek előállítani, ahol az alany arcmimikáját, szájmozgását, gesztusait, hangját a program megtanulja. Majd ezt a „maszkot” illeszti rá, vetíti rá teljesen valósághűen egy másik ember arcára és így válhat bárki bármilyen videó szereplőjévé vagy mondhat olyanokat a „saját” videójában, amelyek sohasem hangzottak el tőle.

Deepfake veszélyei

A deepfake óriási zavarokat, károkat okozhat. Hírességek, politikai vagy közéleti szereplők olyan „szerepeket” kaphatnak, vagy olyan szövegeket mondhatnak el, amit a valóságban biztosan nem tennének. Ezek lehetnek sértő, szexuális vagy humoros kontextusban is. De tulajdonképpen bárki – gyerek, kamasz vagy akár felnőtt is - kerülhet így kellemetlen helyzetbe. Képzeld el, az egyik reggel arra ébredsz, egy olyan videóban látod magad viszont, amelyik kínos, sértő vagy éppen megalázó. Te tudod, hogy a valósághoz semmi köze, nem voltál ott, nem tetted azt, nem mondtad azt, de a felvétel annyira valósághű, hogy mindenki más számára valóságosnak tűnik.

Mielőtt bárki azt gondolná, hogy mindez túl hihetetlen, a deepfake talán a távoli jövő, nem árt tudni, hogy a technológia jelenleg (ugyan egyelőre még alacsony minőségben) egyetlen fotó vagy festmény alapján is képesek mozgatott, arckifejezéseket, gesztusokat kifejező videót gyártani, még a Mona Lisáról is.

 

Íme a valóság?

Egyre igazabb, hogy online bármivel és annak az ellenkezőjével is találkozhatunk. Az álhírek (fake news), a képi manipuláció és a deepfake világában egyre nehezebb megtalálni, hogy mi a valódi és mi az átverés. A források (és a szándékok) sokszor láthatatlanok és szűrőbuborékok szorulnak körénk. Gyakran nem azért hiszünk el valamit, mert racionálisnak tűnik, hanem azért, mert el szeretnénk hinni.

A józanság elengedhetetlen. Általános szabály, hogy ami hihetetlennek tűnik, az nagyon valószínű, hogy az is.

A tanuló algoritmusok által „újraforgatott” videók, vagyis a deepfake lett a következő eszköz, amire tudatosan oda kell figyelnünk. Tudnunk kell, hogy a technológia létezik és meg kell tanulnunk fenntartásokkal kezelni a „döbbenetes” videókat. A források és a hivatkozások, valamint a több irányú ellenőrzés egyre fontosabb képesség az online hírek, videók kavalkádjában. Ha nem teszünk így, akkor előfordulhat, hogy kedvenc színészünk, közéleti figuránk, írónk, vagy a gyerekünk osztálytársa olyasmit fog „mondani”, olyasmit fog „tenni”, ami nagyon nem jellemző rá. És amikor ez futótűzként elterjed, két tábor lesz csak: aki bedől ennek és aki utánanéz.

 

Olvass további cikkeket hasonló témában!

A szerző további írásai