Contenido creado por Sin autor
Inteligencia Artificial

Por The New York Times

Crear videos ultrafalsos se volvió más barato y fácil gracias a la inteligencia artificial

Muchas de las herramientas para crear los videos “deepfakes” o ultrafalsos están al alcance de los consumidores, no como antes.

14.03.2023 12:09

Lectura: 7'

2023-03-14T12:09:00-03:00
Compartir en

Por The New York Times | Stuart A. Thompson

No estaría del todo fuera de lugar que Joe Rogan, el cómico reconvertido en podcastero, promocionara una marca de café “estimulante de la libido” para hombres.

Pero cuando un video que circulaba hace poco por TikTok mostraba a Rogan y a su invitado, Andrew Huberman, promocionando el café, algunos espectadores se sorprendieron, incluyendo a Huberman.

“Sí, es falso”, escribió Huberman en Twitter después de ver el anuncio, en el que parece alabar el potencial del café para aumentar la testosterona, aunque él nunca lo hizo.

El anuncio forma parte de un creciente número de videos falsos en las redes sociales creados con tecnología basada en inteligencia artificial. Según los expertos, la voz de Rogan parece haber sido sintetizada con herramientas de inteligencia artificial que imitan las voces de los famosos. Los comentarios de Huberman fueron extraídos de una entrevista no relacionada.

La creación de videos falsos realistas, a menudo llamados ‘deepfakes’ o ultrafalsos, antes requería un software complejo para poner la cara de una persona en la de otra. Pero ahora, muchas de las herramientas para crearlos están al alcance de los consumidores, incluso en aplicaciones para teléfonos inteligentes, y a menudo por poco o nada de dinero.

Los nuevos videos alterados, en su mayoría obra de creadores de memes y vendedores, se han hecho virales en redes sociales como TikTok y Twitter. Para hacer funcionar a los contenidos que producen, a veces denominados ‘cheapfakes’ (falsos baratos) por los investigadores, estos clonan voces de famosos, alterando los movimientos de la boca para adaptarlos al audio alternativo y escribiendo diálogos persuasivos.

Los videos y la tecnología accesible que hay detrás de ellos hacen que algunos investigadores de IA se preocupen por sus peligros y han suscitado nuevas dudas sobre si las empresas de redes sociales están preparadas para moderar la creciente falsificación digital.

Los guardianes de la desinformación también se preparan para una ola de falsificaciones digitales que podrían engañar a los espectadores o dificultar saber qué es verdad o mentira en internet.

“Lo diferente es que ahora todo el mundo puede hacerlo”, aseguró Britt Paris, profesora adjunta de Biblioteconomía y Ciencias de la Información en la Universidad de Rutgers, que ayudó a acuñar el término ‘cheapfakes’. “No se trata solo de gente con tecnología informática sofisticada y conocimientos informáticos bastante sofisticados. En lugar de eso, es una aplicación gratuita”.

Durante años, por TikTok y otros sitios, han circulado contenidos manipulados, normalmente con trucos más caseros, como una cuidadosa edición o el cambio de un segmento de audio por otro. En un video de TikTok, la vicepresidenta Kamala Harris aparecía diciendo que todos los hospitalizados por COVID-19 habían sido vacunados. En realidad, afirmó que los pacientes no estaban vacunados.

A finales del año pasado, Graphika, una empresa de investigación que estudia la desinformación, falsificaciones de presentadores de noticias ficticios difundidas por cuentas bot pro-China, el primer ejemplo conocido de uso de esta tecnología para campañas de influencia alineadas con el Estado.

No obstante, varias herramientas nuevas ofrecen una tecnología similar a los usuarios de internet, las cuales dan a cómicos y partidarios la oportunidad de hacer sus propias falsificaciones convincentes.

El mes pasado circuló un video falso que mostraba al presidente Joe Biden declarando un reclutamiento nacional para la guerra entre Rusia y Ucrania. El video fue producido por el equipo responsable de “Human Events Daily”, un pódcast y una transmisión en directo por internet dirigidos por Jack Posobiec, un influente de derecha conocido por difundir teorías conspirativas.

En un segmento explicativo del video, Posobiec señaló que su equipo lo había creado utilizando tecnología de inteligencia artificial. Un tuit sobre el video de The Patriot Oasis, una cuenta conservadora, utilizó una etiqueta de noticia de última hora sin indicar que el video era falso. El tuit fue visto más de ocho millones de veces.

Muchos de los videoclips con voces sintetizadas parecían utilizar tecnología de ElevenLabs, una empresa estadounidense cofundada por un ingeniero que trabajó en Google. En noviembre, la empresa presentó una herramienta de clonación del habla que puede entrenarse para reproducir voces en cuestión de segundos.

ElevenLabs llamó la atención el mes pasado después de que 4chan, un sitio web de tipo tablón de imágenes, basado en el concepto de los foros de texto, conocido por sus contenidos racistas y conspiranoicos, utilizara la herramienta para compartir mensajes de odio. En un ejemplo, los usuarios de 4chan crearon una grabación de audio de un texto antisemita utilizando una voz generada por computadora que imitaba a la actriz Emma Watson. Motherboard informó anteriormente sobre el uso de la tecnología de audio por parte de 4chan.

ElevenLabs afirmó en Twitter que introduciría nuevas salvaguardias, como limitar la clonación de voz a las cuentas de pago y proporcionar una nueva herramienta de detección de IA. Pero los usuarios de 4chan dijeron que crearían su propia versión de la tecnología de clonación de voz utilizando código fuente abierto, publicando demos que suenan de manera similar al audio producido por ElevenLabs. Los expertos que estudian la tecnología ‘deepfake’ sugirieron que lo más probable era que el anuncio falso en el que aparecían Rogan y Huberman se hubiera creado con un programa de clonación de voz, aunque la herramienta exacta utilizada no estaba clara. El audio de Rogan se empalmó con una entrevista real a Huberman sobre la testosterona.

Los resultados no son perfectos. El clip de Rogan se tomó de una entrevista, no relacionada, publicada en diciembre con Fedor Gorst, jugador profesional de billar. Los movimientos de la boca de Rogan no coinciden con el audio y su voz suena poco natural a veces. Fue difícil saber si el video convenció a los usuarios de TikTok: atrajo mucha más atención después que fuera marcado por su impresionante falsedad.

Las políticas de TikTok prohíben las falsificaciones digitales “que engañen a los usuarios distorsionando la verdad de los hechos y causen un daño significativo al sujeto del video, a otras personas o a la sociedad”. Varios de los videos fueron retirados después de que The New York Times los señalara a la empresa. Twitter también retiró algunos de los videos. Los reguladores federales han tardado en responder. Una ley federal de 2019 solicitó un informe sobre el armamentismo de ‘deepfakes’ por parte de extranjeros, exigió a las agencias gubernamentales que notificaran al Congreso si este tipo de videos se referían a elecciones en Estados Unidos y creó un premio para fomentar la investigación de herramientas que pudieran detectarlos.

“No podemos esperar dos años hasta que se aprueben las leyes”, comentó Ravit Dotan, investigadora posdoctoral que dirige el Laboratorio de Responsabilidad Colaborativa en IA de la Universidad de Pittsburgh. “Para entonces, el daño podría ser demasiado. Hay un periodo de elecciones a la vuelta de la esquina en Estados Unidos. Va a ser un problema”. Los creadores de memes y los vendedores de desinformación están adoptando herramientas de inteligencia artificial para crear videos falsos convincentes a bajo costo. (Aaron Fernandez/The New York Times)