En un movimiento que refleja la creciente preocupación por las implicancias del desarrollo acelerado de la inteligencia artificial (IA), OpenAI anunció la apertura de una vacante estratégica: el nuevo responsable de Preparación, cuyo rol será detectar y mitigar los potenciales peligros que los modelos avanzados podrían representar en el mundo real.
El anuncio fue destacado por el director ejecutivo de OpenAI, Sam Altman, quien en su cuenta de X (antes Twitter) describió el cargo como “crucial” y advirtió que será “estresante”, ya que la persona elegida “estará envuelta en una situación complicada casi de inmediato”.
El puesto responde a una preocupación creciente entre tecnólogos y reguladores: los modelos de IA —como GPT-4, desarrollado por la propia OpenAI— son cada vez más capaces de realizar tareas complejas, pero también abren la puerta a usos maliciosos, ya sea en forma de campañas de desinformación hiperpersonalizadas, generación automatizada de malware, o detección de vulnerabilidades críticas en sistemas informáticos.
De la ciberseguridad al riesgo biológico
El responsable de Preparación no solo deberá evaluar el impacto digital de estos modelos, sino también adelantarse a posibles amenazas biológicas, en una función que combina evaluación técnica, coordinación estratégica y anticipación de escenarios de riesgo.
Entre sus responsabilidades estarán el diseño y ejecución de evaluaciones rigurosas de capacidades, la construcción de modelos de amenaza y el diseño de estrategias de mitigación que puedan ser escaladas operacionalmente. La oferta enfatiza la necesidad de un enfoque "coherente, riguroso y escalable".
¿Una señal a los reguladores?
Este anuncio se da en un contexto de creciente presión política y regulatoria a nivel global. Estados Unidos, la Unión Europea y países asiáticos están desarrollando marcos normativos para controlar el desarrollo y despliegue de sistemas de IA avanzados, y la propia OpenAI ha estado en el centro del debate sobre los límites éticos, de seguridad y transparencia de estas tecnologías.
Con esta contratación, la empresa parece enviar un mensaje: está dispuesta a asumir una mayor responsabilidad proactiva en la gestión de los riesgos asociados a su tecnología. Pero también admite —aunque implícitamente— que los riesgos no son hipotéticos, sino reales y presentes.
Con información de Europa Press