Con el comienzo de elecciones en Estados Unidos, Meta actualizó sus políticas y empezará a etiquetar contenido generado con IA con el fin de ayudar a los usuarios a distinguir cuáles son.
Esta nueva herramienta comenzará a regirse en mayo, según indicó el medio Extremetech. Será por esa fecha que se comenzará a ver una etiqueta con la insignia “Hecho con IA” en cada foto o video que así lo sea.
Además, la empresa comunicó que, si un contenido generado o alterado con IA presenta “un riesgo particularmente alto de engañar materialmente al público en un asunto de importancia”, agregará una etiqueta más con contexto. Solo los contenidos que vayan en contra de las reglas comunitarias de las redes sociales serán eliminados, pero si llegan a detectarse como contenidos falsos, Meta les reducirá la visibilidad.
“La introducción de contenido de IA y etiquetas de medios manipulados por parte de Meta es un paso positivo, pero puede que no aborde completamente las complejidades del contenido generado y manipulado por IA”, dijo a Extremetech Alon Yamin, cofundador de Copyleaks, una plataforma que ayuda a los usuarios a detectar textos u otros contenidos plagiados o generados con inteligencia artificial.
El ejecutivo también resaltó que esta herramienta será muy importante para combatir fake news, principalmente en las próximas elecciones estadounidenses. “La iniciativa de Meta podría verse como un paso proactivo para salvaguardar la integridad del discurso en línea en medio de un escrutinio cada vez mayor de la información digital”.
“Teniendo en cuenta que Facebook e Instagram, ambos propiedad de Meta, fueron grandes defensores de la difusión de información errónea durante las últimas elecciones, Meta potencialmente siente la mayor presión en torno a una regulación adecuada de la IA generativa”, dijo Yamin. “Como líder de la industria, las acciones de Meta a menudo establecen el estándar, abordando las preocupaciones del público sobre la desinformación y la autenticidad del contenido. Esta medida responde a las demandas de medidas sólidas y sirve como modelo para otras plataformas que enfrentan presiones similares”, continuó.
Las IA aprovechadas para el mal
Cada vez más es común ver deepfakes en las redes sociales, videos o fotos en las que se implanta la cara de un famoso al cuerpo de otra persona y causan revuelo por lo que se le ve haciendo. Por ejemplo, se falsifican entrevistas o se realiza pornografía falsa con la cara de otra persona. “Los ciberdelincuentes están aprovechando la IA de formas sofisticadas para manipular la percepción pública sobre temas delicados como las elecciones”, dijo Lisa Plaggemier, Executive Director de la National Cybersecurity Alliance (de Estados Unidos).
“Al aprovechar la IA, los ciberdelincuentes pueden producir y difundir rápidamente estos materiales engañosos a través de plataformas de redes sociales, donde rápidamente pueden volverse virales y difundir información errónea”, agregó Plaggemier.
La ejecutiva destacó que estas actividades pueden “manipular temas de actualidad” hasta el punto de “explotar las vulnerabilidades en el discurso público y socavar la integridad de los procesos democráticos”.
Acerca de los comentarios
Hemos reformulado nuestra manera de mostrar comentarios, agregando tecnología de forma de que cada lector pueda decidir qué comentarios se le mostrarán en base a la valoración que tengan estos por parte de la comunidad. AMPLIAREsto es para poder mejorar el intercambio entre los usuarios y que sea un lugar que respete las normas de convivencia.
A su vez, habilitamos la casilla reportarcomentario@montevideo.com.uy, para que los lectores puedan reportar comentarios que consideren fuera de lugar y que rompan las normas de convivencia.
Si querés leerlo hacé clic aquí[+]