Contenido creado por Lorena Zeballos
Seguridad

Mentira al cuadrado

Qué son los “deepfakes”, los algoritmos que le harán creer cualquier cosa

Estos videos creados con inteligencia artificial son tan verosímiles que es difícil darse cuenta de que son mentira.

08.12.2021 11:57

Lectura: 5'

2021-12-08T11:57:00-03:00
Compartir en

Bogotá, 8 dic (EFE).- Los "deepfakes" pueden hacer bailar "TikToks" a la reina de Inglaterra, Isabel II, o revivir a la princesa Leia en Star Wars. Son videos creados con inteligencia artificial en los que un programa reemplaza la cara de una persona por la de otra, y son tan verosímiles que es difícil darse cuenta de que son mentira.

Las imágenes manipuladas se generan con algoritmos que "leen" los rostros faciales de decenas de fotografías y videos tomadas desde distintos ángulos. Con esa información, el programa consigue recrear la voz y la imagen de una persona simulando sus gesticulaciones sobre la cara de otra.

RESUCITAR A FAMOSOS FALLECIDOS

Los mejores "softwares" utilizan una gran cantidad de recursos audiovisuales y cada vez que crean un "deepfake" están mejorando sus algoritmos para hacerlo mejor a la próxima, gracias al "machine learning", métodos computacionales y estadísticos que permiten a los ordenadores aprender tareas basadas en datos existentes.

El uso de los "deepfakes" no tiene que ser intrínsecamente malo, señala a EFE Idoia Salazar, presidenta y cofundadora del Observatorio del Impacto Ético y Social de la Inteligencia Artificial (OdiseIA).

Pueden resucitar a famosos ya fallecidos, como hizo la cervecera Cruzcampo en un anuncio que revivió a la cantante española Lola Flores durante unos minutos, o "ahorrar costes en películas que puedan prescindir de actores reales para las secuencias más peligrosas", añade la experta.

ARMA PELIGROSA EN LAS MANOS EQUIVOCADAS

Pero en las manos equivocadas, pueden convertirse en una herramienta para desinformar de una forma mucho más sofisticada que las mentiras falsas al uso. Pueden poner palabras en la boca de un presidente que inviten al desorden público, o desprestigiar a activistas haciéndoles aparecer en falsos videos pornográficos.

De hecho, el término "deepfake" nació en 2017 por un usuario de la plataforma Reddit con ese nombre que subió videos con los rostros de famosas como Taylor Swift o Gal Gadot en el cuerpo de actrices porno.

Para Salazar, "el nivel de alarma ahora mismo debe de ser elevado", porque en cuanto a la desinformación, "los deepfakes pueden ser tremendamente peligrosos".

Cuando una persona ve algo por escrito, añade Salazar, puede intuir por la tipografía que es un contenido modificado, pero cuando una persona ve una imagen que se mueve y se expresa con naturalidad "se lo va a creer casi seguro".

LA DIFICULTAD DE DISCERNIR ENTRE LO FALSO Y LO VERDADERO

Por otra parte, la periodista Claire Wardle, cofundadora y directora de First Draft, organización líder en el combate a la desinformación, advierte en un artículo en The New York Times que el "alarmismo" en torno a los "deepfakes" puede ser aprovechado por políticos para refutar que aparecieron en un video cometiendo un crimen o un hecho reprobable.

Por ejemplo, el expresidente de EE.UU. Donald Trump puso en duda que fuese él quien aparecía en un video filtrado antes de las elecciones presidenciales de 2016 en el que se lo veía haciendo comentarios groseros sobre las mujeres.

Precisamente esa línea brumosa entre la verdad y la ficción catalizó un intento de golpe de estado en Gabón hace casi tres años. En 2018, en el país hacía meses que no se veía al presidente, Ali Bongo, lo que había espoleado rumores sobre su salud.

Cuando después de un largo tiempo reapareció en un video para dar el discurso de Año Nuevo, la rigidez y poca naturalidad de sus gestos despertaron sospechas de que era un "deepfake".

Las dudas fueron un argumento más para sostener que el presidente era incapaz de gobernar, con mensajes que incluso decían que estaba muerto. El Ejército intentó dar un golpe de Estado una semana después.

The Washington Post investigó el video y consultó con expertos en inteligencia artificial que señalaron que es muy probable que fuera cierto y que la gestualidad artificial se debiera a secuelas de un derrame cerebral.

UN CRECIMIENTO DEL 900 %

La empresa emergente Sentinel identificó desde 2019 un crecimiento del 900 % de los "deepfakes", cuando se pasó de unas 14.500 a 145.000. La mayoría fueron compartidos en redes sociales y tuvieron cerca de 6.000 millones de visualizaciones.

El crecimiento acelerado se debe a que cada vez es más fácil crearlas. EFE analizó un "deepfake" de la activista climática Greta Thunberg en el que aparece desnuda. Las imágenes manipuladas habían sido creadas con una aplicación para el móvil, según confesaba el autor anónimo en la descripción del video.

Mientras los países siguen debatiendo su regulación, los expertos consultados por EFE insisten en la importancia de la cibereducación y del desarrollo de programas que los identifiquen.

El experto en ciberseguridad Juan David Cardona da algunos consejos a EFE que pueden ayudar a reconocerlos, como fijarse en la gesticulación de la persona que aparece en el video, ya que en los "deepfakes" siempre va a haber retrasos en los fotogramas o en la voz.

También puede haber movimientos en los que se desplace la imagen sobrepuesta y hay que fijarse si coincide el tono de piel entre la cara y el cuerpo.

Por último, aconseja mirar si la fuente de donde proviene el video es conocida y confiable. Si no lo es, buscar si aparece en otras fuentes respetables como periódicos.

Fuente: EFE