Contenido creado por Florencia Sartori
Tecnología

Para distinguir

Meta actualiza sus políticas y agrega etiqueta al contenido generado con IA

Desde mayo comenzará a regir esta nueva herramienta que, según expertos, será fundamental para ayudar a los usuarios a reconocer fake news.

18.04.2024 15:05

Lectura: 3'

2024-04-18T15:05:00-03:00
Compartir en

Con el comienzo de elecciones en Estados Unidos, Meta actualizó sus políticas y empezará a etiquetar contenido generado con IA con el fin de ayudar a los usuarios a distinguir cuáles son.

Esta nueva herramienta comenzará a regirse en mayo, según indicó el medio Extremetech. Será por esa fecha que se comenzará a ver una etiqueta con la insignia “Hecho con IA” en cada foto o video que así lo sea.

Además, la empresa comunicó que, si un contenido generado o alterado con IA presenta “un riesgo particularmente alto de engañar materialmente al público en un asunto de importancia”, agregará una etiqueta más con contexto. Solo los contenidos que vayan en contra de las reglas comunitarias de las redes sociales serán eliminados, pero si llegan a detectarse como contenidos falsos, Meta les reducirá la visibilidad.

“La introducción de contenido de IA y etiquetas de medios manipulados por parte de Meta es un paso positivo, pero puede que no aborde completamente las complejidades del contenido generado y manipulado por IA”, dijo a Extremetech Alon Yamin, cofundador de Copyleaks, una plataforma que ayuda a los usuarios a detectar textos u otros contenidos plagiados o generados con inteligencia artificial.

El ejecutivo también resaltó que esta herramienta será muy importante para combatir fake news, principalmente en las próximas elecciones estadounidenses. “La iniciativa de Meta podría verse como un paso proactivo para salvaguardar la integridad del discurso en línea en medio de un escrutinio cada vez mayor de la información digital”.

“Teniendo en cuenta que Facebook e Instagram, ambos propiedad de Meta, fueron grandes defensores de la difusión de información errónea durante las últimas elecciones, Meta potencialmente siente la mayor presión en torno a una regulación adecuada de la IA generativa”, dijo Yamin. “Como líder de la industria, las acciones de Meta a menudo establecen el estándar, abordando las preocupaciones del público sobre la desinformación y la autenticidad del contenido. Esta medida responde a las demandas de medidas sólidas y sirve como modelo para otras plataformas que enfrentan presiones similares”, continuó.

Las IA aprovechadas para el mal

Cada vez más es común ver deepfakes en las redes sociales, videos o fotos en las que se implanta la cara de un famoso al cuerpo de otra persona y causan revuelo por lo que se le ve haciendo. Por ejemplo, se falsifican entrevistas o se realiza pornografía falsa con la cara de otra persona. “Los ciberdelincuentes están aprovechando la IA de formas sofisticadas para manipular la percepción pública sobre temas delicados como las elecciones”, dijo Lisa Plaggemier, Executive Director de la National Cybersecurity Alliance (de Estados Unidos).

“Al aprovechar la IA, los ciberdelincuentes pueden producir y difundir rápidamente estos materiales engañosos a través de plataformas de redes sociales, donde rápidamente pueden volverse virales y difundir información errónea”, agregó Plaggemier.

La ejecutiva destacó que estas actividades pueden “manipular temas de actualidad” hasta el punto de “explotar las vulnerabilidades en el discurso público y socavar la integridad de los procesos democráticos”.