Contenido creado por Paulina Molaguero
Tecnología

¿Costo o beneficio?

Quejas por “acoso” de chatbot reaviva debate sobre regulación de inteligencia artificial

Los usuarios del robot conversacional estounidense Replika denuncian, entre otras cosas, haber recibido imágenes demasiado explícitas.

12.02.2023 17:14

Lectura: 3'

2023-02-12T17:14:00-03:00
Compartir en

iLos usuarios del robot conversacional estadounidense Replika buscaban compañía, algunos un vínculo romántico o incluso intercambios con un tinte sexual. Pero, en el último año abundan las quejas de personas que recibieron imágenes demasiado explícitas o que se sintieron acosados sexualmente.

Este viernes, la Agencia Italiana de Protección de Datos expresó su inquietud por el impacto en las personas más frágiles y prohibió que Replika use los datos personales de los italianos, afirmando que va en contra del Reglamento General de Protección de Datos (RGPD).

El robot Replika fue entrenado basándose en una versión del modelo conversacional GPT-3 de la empresa OpenAI, que fue la creadora de chatGPT. Este sistema de Inteligencia Artificial (IA) utiliza información de internet para generar respuestas coherentes a las preguntas de los usuarios. 

Esta tecnología promete una revolución de las búsquedas en internet y de otros dominios en los que pueda ser utilizada. Pero, los expertos advierten que también representa riesgos que hacen necesaria su regulación, que es difícil de implementar. 

“Alta tensión”

Actualmente, la Unión Europea es una de las instituciones en las que se debate cómo regular esta nueva herramienta tecnológica. El proyecto de norma “AI Act” podría estar terminado para finales de 2023 o inicios de 2024. 

“Estamos descubriendo los problemas que la IA puede plantear. Hemos visto que chatGPT puede ser usado para crear mensajes de phishing (fraude online) muy convincentes o para tratar una base de datos para trazar la identidad de una persona concreta”, explicó a AFP Bertrand Pailhès, que dirige una nueva división de IA de la autoridad francesa regulatoria CNIL.

Los juristas destacan la dificultad que hay para comprender y regular la “caja negra” en la que se funda el razonamiento de la IA. “Vamos a asistir a una fuerte tensión entre el RGPD y los modelos de IA que generan contenido”, dijo a AFP el abogado alemán Dennis Hillemann, que es un experto del sector.  

“Ni el proyecto de regulación AI Act ni la normativa actual RGPD pueden resolver los problemas que estos modelos de IA van a traer”, afirmó. Va a ser necesario replantear la regulación “en términos de lo que los modelos generadores de IA pueden hacer realmente”, adelantó. 

El último modelo de OpenAI, GPT-4, va a salir próximamente con un modo de funcionar que puede acercarse aún más a la capacidad de un ser humano. Pero todavía este tipo de IA comete muchos errores cuando analiza los hechos, a veces muestra que es parcial o puede producir afirmaciones que resulten difamatorias, por lo que muchos afirman que debe ser regulado.

Jacob Mchangama, experto en libertad de expresión, no comparte este enfoque. “Incluso si los chatbots no tienen derecho a la libertad de expresión, debemos permanecer vigilantes frente a la posibilidad de que los gobiernos supriman sin trabas la inteligencia artificial”, declaró.

Joseph Boyle y Laurence Benhamou para AFP