Folosim cookie-uri pentru a personaliza conținutul și anunțurile, pentru a oferi funcții de rețele sociale și pentru a analiza traficul. De asemenea, le oferim partenerilor de rețele sociale, de publicitate și de analize informații cu privire la modul în care folosiți site-ul nostru. Aceștia le pot combina cu alte informații oferite de dvs. sau culese în urma folosirii serviciilor lor. În cazul în care alegeți să continuați să utilizați website-ul nostru, sunteți de acord cu utilizarea modulelor noastre cookie.

Deep fake – următorul nivel al minciunii credibile

Deep fake – următorul nivel al minciunii credibile

Deep fake: un fake care este atât de bine realizat, încât este aproape imposibil de depistat.

Florin Budescu 0 comentarii

"Deepfakes” (o licenţă lingvistică între deep learning, adică învățare profundă, și „fals”) sunt entităţi media sintetice, în care o persoană existentă, dintr-o imagine sau un videoclip, e înlocuită cu altcineva, asemănător sau nu, ori rămâne ea însăşi, dar face şi/sau spune altceva decât în realitate, anume ce doreşte creatorul falsului.

Nu de ieri, nici de azi, ci de sute de ani sau chiar mai bine, sunt minţi care se gândesc cum să falsifice realitatea, de regulă cu intenţia discreditării persoanelor publice, ori din dorinţa autorului de a instaura credibil o falsă realitate.

Manipularea foto a început încă din secolul al XIX-lea și s-a aplicat la imaginile în mișcare, imediat cum au apărut acestea. Tehnologia s-a îmbunătățit constant în secolul XX și mai rapid după a apariţia tehnologiei video digitale.

Tehnologia deep fake a fost dezvoltată de cercetători de la instituții academice din anii '90, iar mai târziu de amatorii din online. Mai recent, metodele acestea au fost adoptate de industrie. În timp, tehnicile de falsificare s-au rafinat încontinuu.

Un caz de deep fake recent destul de primitiv, legat direct de actualitatea noastră, este cel în care, într-un clip video, devenit foarte viral pe Internet, preşedintele Klaus Iohannis vorbeşte la tv, cu masca pe figură, în pandemie, iar o pisică fuge din faţa ecranului, înspăimântată. În realitate, pisica, în clipul nefalsificat, fuge de o pumă care apare pe ecran.

„Chiar şi în cazul în care se dovedeşte falsul, dacă clipul este viral, răul a fost deja făcut. Vă daţi seama care sunt implicaţiile? Nu vom mai deosebi adevărul de minciună.”

Actul de falsificare a conținutului nu este nou. Entităţile de tip deepfake folosesc tehnici avansate de machine learning și de inteligență artificială, pentru a manipula sau a genera conținut video și audio cu un potențial ridicat de a înșela.

Şi, chiar şi în cazul în care se dovedeşte falsul, dacă clipul este viral, răul a fost deja făcut. Vă daţi seama care sunt implicaţiile? Nu vom mai putea deosebi adevărul de minciună.


Unde începe minciuna...

... şi se termină adevărul. Tehnicile deep fake au obținut o atenție largă pentru utilizarea lor în videoclipuri pornografice, atribuite fals celebrităţilor, revenge porn, fake news, farse și fraude financiare.

Fenomenul a generat răspunsuri din partea industriei și guvernelor, pentru a detecta și limita utilizarea. Un exemplu de tehnologie deep fake a ajuns pe Internet: într-o scenă din filmul „Man of Steel”, actrița Amy Adams, în original, e modificată dramatic, pentru a avea fața actorului Nicolas Cage.

Proiectele academice s-au concentrat pe crearea de videoclipuri tot mai credibile și îmbunătățirea tehnicilor de falsificare. Programul Synthesizing Obama, făcut public în anul 2017, modifică materialele video ale fostului președinte Barack Obama, pentru a-l face să rostească exact cuvintele dintr-o piesă muzicală audio.

Proiectul prezintă ca principală contribuție de cercetare tehnica fotorealistă pentru sinteza felului în care victima deep fake efectiv îşi mişcă gura.

Programul Face2Face, apărut în anul 2016, modifică fotogramele video succesive ale feței unei persoane, pentru a le înfățișa imitând expresiile faciale ale altei persoane, în timp real.

„Intrăm într-o lume în care nu vom mai şti care este adevărul şi care minciuna. Vom înghiţi pe nemestecate scene halucinante, în care diferiţi oameni fac ce nu fac şi spun ce nu spun.”

Este de facto prima metodă de reconstrucţie a feţei umane, în timp real, cu o cameră care nu captează adâncimea imaginii, ceea ce face posibilă folosirea tehnicii cu camere obișnuite.

În august 2018, cercetătorii de la Universitatea Berkeley, din California, au publicat o lucrare, ce introduce o aplicație de dans fals, care poate crea impresia unei abilități extraordinare a oricui de a dansat magistral.

 

AI, 3D

Aplicaţia foloseşte inteligenţa artificială (AI). Acest proiect extinde aplicarea modificării mişcării 3D a victimei deep fake pentru întregul corp al acesteia., în timp ce lucrările anterioare se concentraseră doar asupra capului sau părților feței.

În noul film „Star Wars: Rogue One”, prințesa Leia din ediţia originală a fost remasterizată. Cinefilii pot vedea chipul tinerei actriţe Carrie Fisher (actriţa a murit pe 27 decembrie 2016, la vârsta de 60 de ani) lipit pe corpul altei femei.

Considerat nerealist, cu o atenție negativă deosebită concentrată pe ochi și pe textura pielii, întregul nu a fost considerat o reprezentare potrivită și a stricat finalul filmului.

Adică, cum s-ar putea spune, ai făcut un deep fake, dar fă-l, domnule, în aşa fel încât să nu se vadă chiar fiecare celulă de pe epiderma feţei omului.

Se pare că aceia care doreau să-l facă pe Brâncuşi să vorbească într-un clip video ştiau: Salvador Dalli apare viu, bine-mersi, într-un clip al agenţiei de publicitate GS&P.

Exemplele abundă. Oameni buni, intrăm într-o lume în care nu vom mai şti care este adevărul şi care minciuna. Vom înghiţi pe nemestecate scene halucinante, în care diferiţi oameni fac ce nu fac şi spun ce nu spun.

Comentarii

loading...