Meta anunció una actualización significativa en el entrenamiento de sus chatbots de inteligencia artificial (IA) para restringir el tipo de interacciones que pueden mantener con usuarios menores de edad. A partir de ahora, estos asistentes no podrán participar en conversaciones sobre autolesiones, suicidio, trastornos alimenticios ni relaciones de tipo romántico con adolescentes, y serán entrenados para redirigir a los jóvenes hacia recursos especializados en salud mental.

La medida llega después de que la propia compañía, dirigida por Mark Zuckerberg, reconociera que sus políticas anteriores permitían interacciones inapropiadas, incluyendo vínculos afectivos simulados entre chatbots y usuarios menores. “Fue un error”, admitió Meta en declaraciones recogidas por TechCrunch, comprometiéndose a endurecer sus controles.

La portavoz de Meta, Stephanie Otway, explicó que la empresa está “aprendiendo cómo los jóvenes interactúan con estas herramientas” y que, en función de esa experiencia, han decidido restringir el acceso de los menores a ciertos bots que promueven contenido sexualizado. Ejemplos como “Madrastra” o “Chica rusa”, disponibles en Instagram y Facebook, quedarán fuera del alcance de los adolescentes.

Además, Meta limitará el acceso de los menores a bots que no estén centrados en educación o creatividad. Estas medidas son consideradas por la empresa como “provisionales”, con la promesa de políticas más robustas a futuro.

Presión institucional en EE.UU.

Esta actualización ocurre en un contexto de creciente escrutinio en Estados Unidos sobre los riesgos que implica la interacción de menores con inteligencia artificial. Una coalición de 44 fiscales generales estatales envió recientemente una carta a varias empresas tecnológicas —incluida Meta— expresando su “alarma” ante lo que consideran comportamientos ilegales por parte de los chatbots.

Los fiscales calificaron como “indignante” que estos sistemas estuvieran involucrados en interacciones potencialmente prohibidas por la ley penal y advirtieron que iniciarán investigaciones formales.

Con información de Europa Press