Una carta abierta firmada por más de 700 científicos, expertos tecnológicos, líderes políticos y figuras públicas ha reavivado el debate global sobre los límites del desarrollo de la inteligencia artificial (IA). La misiva, impulsada por el Future of Life Institute, pide detener el avance hacia la superinteligencia artificial, es decir, una IA con capacidades superiores a las humanas, hasta que exista un consenso científico y social sobre su control y seguridad.
“Hacemos un llamamiento para que se detenga el desarrollo de una superinteligencia, hasta que no exista un consenso científico para construirla de forma controlada y segura, y mientras no exista el apoyo de la población”, señala el texto, disponible en el sitio de la organización con sede en Estados Unidos.
Entre los firmantes: pioneros de la IA, figuras políticas y celebridades
El documento ha sido respaldado por referentes clave del desarrollo de la inteligencia artificial moderna, como Geoffrey Hinton —Premio Nobel de Física 2024—, Yoshua Bengio (Universidad de Montreal) y Stuart Russell (UC Berkeley), todos considerados “padres fundadores” del aprendizaje profundo.
También figuran personalidades del ámbito tecnológico como Steve Wozniak, cofundador de Apple; Richard Branson, fundador de Virgin Group; y Max Tegmark, físico y presidente del Future of Life Institute. Del ámbito político destacan Susan Rice, exasesora de seguridad nacional de EE.UU., y Steve Bannon, exestratega de Donald Trump, mostrando un inusual consenso transversal.
Desde el mundo del espectáculo, el llamado ha sido respaldado por el príncipe Enrique y Meghan Markle, el cantante will.i.am, y hasta representantes religiosos como Paolo Benanti, asesor del Papa Francisco y experto del Vaticano en ética de la IA.
¿Qué es la superinteligencia y por qué preocupa?
A diferencia de la inteligencia artificial general (IAG) —un nivel aún hipotético en el que las máquinas igualan las capacidades cognitivas humanas—, la superinteligencia implicaría una superación de esas capacidades, lo que abre interrogantes existenciales, éticos y políticos de gran envergadura.
Según Sam Altman, CEO de OpenAI (la compañía detrás de ChatGPT), el umbral de la superinteligencia podría alcanzarse en tan solo cinco años. Sin embargo, muchos expertos creen que avanzar hacia ese nivel sin regulación internacional ni mecanismos de control sólidos supone un riesgo inaceptable.
Con información de EFE
Acerca de los comentarios
Hemos reformulado nuestra manera de mostrar comentarios, agregando tecnología de forma de que cada lector pueda decidir qué comentarios se le mostrarán en base a la valoración que tengan estos por parte de la comunidad. AMPLIAREsto es para poder mejorar el intercambio entre los usuarios y que sea un lugar que respete las normas de convivencia.
A su vez, habilitamos la casilla [email protected], para que los lectores puedan reportar comentarios que consideren fuera de lugar y que rompan las normas de convivencia.
Si querés leerlo hacé clic aquí[+]