Un estudio de la Universitat Rovira i Virgili (URV), en Tarragona (España), alerta sobre las limitaciones técnicas para eliminar datos sensibles o personales de los grandes modelos de inteligencia artificial (IA), como ChatGPT, Bard, Mixtral o Copilot. Los investigadores advierten que actualmente no existe un método eficaz para garantizar el “desaprendizaje” total de una información una vez fue incorporada al sistema, lo que entra en conflicto directo con el derecho al olvido recogido en la normativa europea.
El dilema: aprender mucho, olvidar poco
Los modelos de IA se entrenan con enormes cantidades de datos extraídos de internet, lo que los vuelve eficientes, pero también opacos. Una vez que cierta información —por ejemplo, un dato personal erróneo o discriminatorio— se incorpora al modelo, su eliminación resulta extremadamente compleja.
El estudio, publicado este martes, distingue dos estrategias de desaprendizaje:
Reentrenar el modelo desde cero, excluyendo la información que se quiere borrar. Es eficaz, pero muy costoso y poco viable a gran escala.
Eliminar solo fragmentos concretos de conocimiento, sin reconstruir todo el sistema. Es más eficiente, pero no garantiza que la información desaparezca por completo.
"Ni siquiera quienes desarrollan estos modelos saben con precisión cómo se almacena cada información", advierten los autores.
Choque con la legislación europea
El Reglamento General de Protección de Datos (RGPD) de la Unión Europea contempla el derecho al olvido, es decir, la facultad de cualquier ciudadano de solicitar la eliminación de sus datos personales de los sistemas digitales. Si bien esto se aplica con eficacia en buscadores o redes sociales, la arquitectura actual de los modelos de IA no lo permite plenamente.
Esto plantea desafíos legales y éticos para las grandes tecnológicas, que enfrentan cada vez más demandas por uso indebido de datos, sesgos algorítmicos y falta de transparencia.
Un futuro con “IA olvidadiza” desde el diseño
El estudio concluye que será imprescindible repensar cómo se entrenan estos modelos, incorporando desde el inicio estructuras que permitan borrar o modificar partes específicas del conocimiento sin afectar el rendimiento general.
Entre las soluciones posibles, los investigadores mencionan la fragmentación modular de datos, de modo que el sistema no dependa de “todo o nada” para funcionar. Esta reestructuración implicaría una transformación profunda del desarrollo de IA generativa tal como la conocemos hoy.
Con información de EFE