El deepfake: entre la sofisticació tecnològica i la manipulació

Encara que sembli ciència-ficció, ja s’estan duent als cinemes pel·lícules protagonitzades per actors que han mort com James Dean en Finding Jack i fins i tot, concerts d’artistes que ens van deixar fa anys en una espècie de gira post mortem. Amy Winehouse va ser una de les primeres a tornar als escenaris deu anys després de la seva mort; això sí, en forma d’holograma. Tècniques tecnològiques sofisticades com les imatges generades per ordinador (CGI, Computer Generated Imagery) o el deepfake permeten fer realista, gairebé real, persones i objectes que en realitat no existeixen.

Publicado por Maria Poveda | 23.08.2021

El deepfake o vídeo hipertrucat, com proposa el Termcat, són imatges, vídeos o àudios manipulats mitjançant tècniques d’intel·ligència artificial i que són extremadament realistes, encara que no són reals. Deepfake ve de la suma de dos conceptes: “fake” (fals) i “deep learning” (aprenentatge profund). Es tracta d’una tècnica d’intel·ligència artificial que pot sintetitzar, per exemple, imatges o vídeos ja existents d’una persona real amb un altre vídeo d’una altra persona, de manera que sembli que la persona que apareix al vídeo 1 es mogui i digui el que diu la persona que apareix al vídeo 2. És el que van fer en “El Intermedio” quan Wyoming es va encarnar en l’extresorer de l’PP Luís Bárcenas.

I, efectivament, aquesta és la seva essència, però l’abast i les possibilitats que permeten aquest tipus de conversions van molt més enllà de la seva definició. La investigadora de la Universitat Complutense de Madrid i autora d’Alfabetització moral digital per a la detecció de deepfakes i fakes audiovisuals, Graciela Padilla, defineix el deepfake com un programari gratuït que, a partir de vídeos o àudios de veu de referència, permet crear una màscara i posar-la a sobre d’una persona aliena. I afegeix que “no es necessita cap coneixement tècnic necessari ni estudis tecnològics previs per fer-ho”. Això implica que en molt poques hores, podem fer coincidir una “màscara” que comprengui la fisonomia, el coll i la veu d’una persona i fer-la coincidir en el cos d’una altra. A partir d’aquí, les variables són infinites i no obstant això, els seus usos són encara reduïts.

En l’humor, el deepfake s’està obrint pas, però fins que sigui més habitual, la publicitat i el màrqueting són els camps que més exploten aquest recurs a través de celebritats que compten amb hores de contingut audiovisual a internet perfectament manipulable. Al cap i a la fi, resulta més atractiu que la mateixa Lola Flores anunciï una marca de cervesa o bé, que l’actor australià Chris Hemsworth publiciti la seva aplicació d’entrenament personal mentre veus la seva cara en el cos dels seus mateixos clients fent esport.

Españoles, ¡Franco ha vuelto!

Els periodistes Álvaro de Cózar i Toni Garrido es van atrevir a incloure en el seu podcast sobre la vida del Rei emèrit, XRey, un fragment on el dictador espanyol Francisco Franco presentava un dels capítols d’aquest podcast i afegia a més, que la seva veu havia estat clonada en un laboratori d’intel·ligència artificial. Un terme que en aquell temps, ni el Caudillo podria arribar a imaginar.

El responsable de reviure a Franco en ple segle XXI va ser el centre tecnològic especialitzat en Intel·ligència Artificial, Vicomtech. Per fer-ho, van recopilar més de 16 hores d’àudios de veu de Franco que després van anar reduint fins a trobar els enregistraments que més encaixaven amb el resultat que volien aconseguir. “Acabem amb 6 hores totals d’àudio amb les quals generem el model final. Posteriorment es va aplicar una tècnica de tunejat a través d’un procés anomenat Fine Tuning amb què vam aconseguir la forma, l’estil i els matisos que volíem”, expliquen des de Vicomtech. Retornar a la vida al Caudillo només va costar sis setmanes de treball.

No tots els deepfakes requereixen un equip de professionals en la matèria. De fet, estan a l’abast de tothom que tingui una mica de paciència i sàpiga manejar el programa. Miquel Strubell, va començar a fer aquest tipus de vídeos per pura diversió i així va ser com va obrir el seu propi canal a Youtube DeepFakes Cat on intercanviava les cares de personatges públics com Lionel Messi, Fernando Simón o Helena García Melero. Si és el cas, en no disposar dels recursos de centres tecnològics com Vicomtech, emprava un ordinador només per a crear deepfakes que li portaven de tres a quatre dies de treball. La reacció del públic va ser positiva, encara que molts admetien que havien sentit certa por veient els seus vídeos. “Suposo que la gent té por perquè s’adonen que se la pots colar fàcilment”, reflexiona.

El deepfake és cada vegada més accessible. De fet, hi ha aplicacions tant per iOS com per a Android que permeten retocar, rejovenir o canviar de cara. Alguna d’elles adverteixen que no pot haver-hi un ús poc ètic com suplantar polítics o personatges famosos, però qui ho controla?

Deepfakes pornogràfics

Com en la majoria dels casos, tot avanç tecnològic comporta inconvenients i alguns dilemes ètics. Padilla destaca un dels problemes més generalitzats que ha portat el deepfake, el que denomina com porno de la venjança o, en altres paraules, utilitzar la cara d’una altra persona en un vídeo pornogràfic que mai ha protagonitzat. De fet, la majoria de deepfakes són pornogràfics, com indica un estudi de 2019 realitzat per la companyia de ciberseguretat Deeptrace. Van analitzar 14,678 vídeos deepfake a internet; el 96% eren pornogràfics i el 100% d’ells perjudicaven dones.

En aquest tipus de manipulacions s’han vist embolicades celebritats com Scarlett Johansson o Angelina Jolie, que han emprès autèntiques batalles legals contra els autors i divulgadors dels vídeos falsos. “L’impacte que pot tenir aquesta mateixa manipulació amb la cara d’un ciutadà del carrer que no disposa de tot un equip d’advocats com les celebritats és brutal i, a més, ja s’ha donat”, assenyala la investigadora.

El recorregut legal i jurídic que té aquest tipus de casos segueix sent limitat. Padilla comenta, en concret, dues legislacions que emparen el ciutadà de manipulacions com aquestes. D’una banda, la llei de l’any 1982 que protegeix el dret a l’honor, a la intimitat personal i a la pròpia imatge; i d’altra banda, l’última llei de comunicació audiovisual en vigor des de 2010. “És clar que en aquesta època el deepfake no tenia ni la meitat del recorregut que té ara”, afegeix Padilla irònicament.

A més de la pornografia, un altre ús poc ètic del deepfake és la manipulació de l’opinió pública; la utilització de deepfakes de polítics i altres personatges públics per a la desinformació. La majoria dels que s’han difós en aquest sentit han format part d’una campanya de conscienciació o de publicitat i màrqueting. Així va ser en el cas del deepfake de Mark Zuckerberg, el creador de Facebook; o el deepfake de Pedro Sánchez per l’agència Double You. També en 2019 va aparèixer aquest deepfake en què el líder dels “tories”, Boris Johnson, demanava el vot per al seu oponent, Jeremy Corbyn, i viceversa.

Com detectar deepfakes

Hi ha alguns trucs per detectar vídeos hipertrucats, un d’ells és fixar-se en la transició del cap amb el coll. Un altre consell és intentar reconèixer si la veu és de la persona que s’està suplantant o d’un imitador o un altre individu. Nerea Luís, doctora en Intel·ligència Artificial, explica com identificar deepfakes en aquest vídeo:

Tot això obre un ampli ventall de possibilitats i molts reptes. Intentar paralitzar l’avanç tecnològic és impossible. El que sí que podem intentar és adaptar-nos a les novetats i afrontar-les sense por. La investigadora Padilla remarca abans de res la necessitat d’un marc legislatiu actualitzat que contempli i castigui l’ús de deepfakes amb finalitats perverses com pot ser el porno de la venjança. Ara bé, Padilla també recorda que és fonamental que la legislació sigui acompanyada d’una educació i alfabetització mediàtica per a totes les edats, per detectar també els deepfakes que s’utilitzin per a enganyar, com a peces de desinformació. Un fet que encara que sembli utòpic, és factible.

Strubell assenyala que els deepfakes podrien seguir un camí semblant al de l’aplicació Photoshop. “Ara la gent és molt més conscient que les imatges es poden retocar fàcilment perquè tothom pot adquirir aquesta aplicació. Serà tasca dels mitjans de comunicació separar allò què és real del que no ho és”. El futur és incert, però el que sí que està clar, és que amb el deepfake les possibilitats es multipliquen.

No hay comentarios

Your email address will not be published. Required fields are marked *

Acepto la política de privacidad y el aviso legal