El deepfake: entre la sofisticación tecnológica y la manipulación
Aunque parezca ciencia ficción, ya se están llevando a los cines películas protagonizadas por actores que han fallecido como James Dean en Finding Jack e incluso, conciertos de artistas que nos dejaron hace años en una especie de gira post mortem. Amy Winehouse fue una de las primeras en volver a los escenarios diez años después de su muerte; eso sí, en forma de holograma. Técnicas tecnológicas sofisticadas como las imágenes generadas por ordenador (CGI, computer generated imagery) o el deepfake permiten hacer realista, casi real, personas y objetos que en realidad no existen.
El deepfake o ultrafalso, tal como propone la Fundéu, son imágenes, vídeos o audios manipulados mediante técnicas de inteligencia artificial y que son extremadamente realistas, aunque no son reales. Deepfake viene de la suma de dos conceptos: “fake” (falso) y “deep learning” (aprendizaje profundo). Se trata de una técnica de inteligencia artificial que puede sintetizar, por ejemplo, imágenes o vídeos ya existentes de una persona real con otro vídeo de otra persona, de manera que parezca que la persona que aparece en el vídeo 1 se mueva y diga lo que dice la persona que aparece en el vídeo 2. Es lo que hicieron en “El Intermedio” cuando el gran Wyoming se encarnó en el extesorero del PP Luís Bárcenas.
Transformar a Wyoming en Bárcenas era una cuenta pendiente que tenía desde que me invitaron a colaborar en @El_Intermedio. Hemos usado 4 modelos distintos de IA para hacer todos los ajustes. pic.twitter.com/DNBGMuLK3B
— thehardme (@thehardmenpath) February 15, 2021
Y, efectivamente, esa es su esencia, pero el alcance y las posibilidades que permiten este tipo de conversiones van mucho más allá de su definición. La investigadora de la Universidad Complutense de Madrid y autora de Alfabetización moral digital para la detección de deepfakes y fakes audiovisuales, Graciela Padilla, define el deepfake como un software gratuito que, a partir de videos o audios de voz de referencia, permite crear una máscara y ponerla encima de una persona ajena. Y añade que “no se necesita ningún conocimiento técnico preciso ni estudios tecnológicos previos para llevarlo a cabo”. Esto implica que en muy pocas horas, podemos hacer coincidir una “máscara” que comprenda la fisonomía, el cuello y la voz de una persona y hacerla coincidir en el cuerpo de otra. A partir de aquí, las variables son infinitas y sin embargo, sus usos son aún reducidos.
En el humor, el deepfake se está abriendo paso, pero hasta que sea más habitual, la publicidad y el marketing son los campos que más explotan este recurso a través de celebridades que cuentan con horas de contenido audiovisual en internet perfectamente manipulable. Al fin y al cabo, resulta más atractivo que la propia Lola Flores anuncie una marca de cerveza o bien, que el actor australiano Chris Hemsworth publicite su aplicación de entrenamiento personal mientras ves su cara en el cuerpo de sus mismos clientes haciendo deporte.
Españoles, ¡Franco ha vuelto!
Los periodistas Álvaro de Cózar y Toni Garrido se atrevieron a incluir en su podcast sobre la vida del Rey emérito, XRey, un fragmento donde el dictador español Francisco Franco presentaba uno de los capítulos de dicho podcast y añadía además, que su voz había sido clonada en un laboratorio de inteligencia artificial. Un término que por aquel entonces, ni el Caudillo podría llegar a imaginar.
El responsable de revivir a Franco en pleno siglo XXI fue el centro tecnológico especializado en Inteligencia Artificial, Vicomtech. Para hacerlo, recopilaron más de 16 horas de audios de voz de Franco que después fueron reduciendo hasta dar con las grabaciones que más encajaban con el resultado que querían conseguir. “Acabamos con 6 horas totales de audio con las que generamos el modelo final. Posteriormente se aplicó una técnica de tuneado a través de un proceso llamado Fine Tuning con el que conseguimos la forma, el estilo y los matices que queríamos”, explican desde Vicomtech. Devolver a la vida al Caudillo solo costó 6 semanas de trabajo.
No todos los deepfakes requieren de un equipo de profesionales en la materia. De hecho, están al alcance de todo el mundo que tenga un poco de paciencia y sepa manejar el programa. Miquel Strubell, empezó a hacer este tipo de vídeos por pura diversión y así fue como abrió su propio canal en Youtube Deep Fakes Cat donde intercambiaba las caras de personajes públicos como Lionel Messi, Fernando Simón o Helena García Melero. En su caso, al no disponer de los recursos de centros tecnológicos como Vicomtech, empleaba un ordenador solo para crear deepfakes que le llevaban de tres a cuatro días de trabajo. La reacción del público fue positiva aunque muchos admitían que habían sentido cierto miedo viendo sus vídeos. “Supongo que la gente siente miedo porque se dan cuenta de que se la puedes colar fácilmente”, reflexiona.
El deepfake es cada vez más accesible. De hecho, existen aplicaciones tanto para iOS como para Android que permiten retocar, rejuvenecer o cambiar de cara. Alguna de ellas advierten que no puede haber un uso poco ético como suplantar políticos o personajes famosos, pero ¿quién lo controla?
Deepfakes pornográficos
Como en la mayoría de los casos, todo avance tecnológico conlleva inconvenientes y algún que otro dilema ético. Padilla destaca uno de los problemas más generalizados que ha traído el deep fake, lo que denomina como porno de la venganza o en otras palabras, utilizar la cara de otra persona en un vídeo pornográfico que nunca ha protagonizado. De hecho, la mayoría de deepfakes son pornográficos, como indica un estudio de 2019 realizado por la compañía de ciberseguridad Deeptrace. Analizaron 14,678 vídeos deepfake en internet; el 96% eran pornográficos y el 100% de ellos perjudicaban a mujeres.
En este tipo de manipulaciones se han visto envueltas celebridades como Scarlett Johansson o Angelina Jolie, quienes han emprendido auténticas batallas legales contra los autores y divulgadores de los vídeos falsos. “El impacto que puede tener esta misma manipulación con la cara de un ciudadano de a pie que no dispone de todo un equipo de abogados como las celebridades es brutal y además, ya se ha dado”, señala la investigadora.
El recorrido legal y jurídico que tiene este tipo de casos sigue siendo escueto y algo limitado. Padilla comenta, en concreto, dos legislaciones que amparan al ciudadano de manipulaciones como estas. Por un lado, la ley del 1982 que protege el derecho al honor, a la intimidad personal y a la propia imagen; y por otro lado, la última ley de comunicación audiovisual en vigor desde 2010. “Claro que en esa época el deepfake no tenía ni la mitad del recorrido que tiene ahora”, añade Padilla irónicamente.
Además de la pornografía, otro uso poco ético del deepfake es la manipulación de la opinión pública; la utilización de deepfake de políticos y otros personajes públicos para la desinformación. La mayoría de los que se han difundido en este sentido han formado parte de una campaña de concienciación o de publicidad y márqueting. Así fue en el caso del deepfake de Mark Zuckerberg, el creador de Facebook; o el deepfake de Pedro Sánchez por la agencia Double You. También en 2019 apareció este deepfake en el que el líder de los “tories”, Boris Johnson, pedía el voto para su oponente, Jeremy Corbyn, y viceversa.
Cómo detectar deepfakes
Existen algunos trucos para detectar ultrafalsos, uno de ellos es fijarse en la transición de la cabeza con el cuello. Otro consejo es intentar reconocer si la voz es de la persona que se suplanta o de un imitador u otro individuo. Nerea Luis, doctora en Inteligencia Artificial, explica cómo identificar deepfakes en este video:
Todo esto abre un amplio abanico de posibilidades y muchos retos. Intentar paralizar el avance tecnológico es imposible. Lo que sí podemos intentar es adaptarnos a las novedades y afrontarlas sin miedo. La investigadora Padilla remarca ante todo la necesidad de un marco legislativo actualizado que contemple y castigue el uso de deepfakes con finalidades perversas como puede ser el porno de la venganza. Ahora bien, Padilla también recuerda que es fundamental que la legislación sea acompañada de una educación y alfabetización mediática para todas las edades, para detectar también los deepfakes que se utilicen para engañar, como piezas de desinformación. Un hecho que aunque parezca utópico, es factible.
Strubell señala que los deep fakes podrían seguir un camino parecido al de la aplicación Photoshop. “Ahora la gente es mucho más consciente de que las imágenes se pueden retocar fácilmente porque todo el mundo puede adquirir esta aplicación. Será tarea de los medios de comunicación separar qué es real de lo que no lo es”. El futuro es incierto, pero lo que sí está claro, es que con el deepfake las posibilidades se multiplican.