La noticia apareció publicada el 13 de abril en la revista Science. El titular anunciaba: "La Inteligencia Artificial está evolucionando por sí misma". Y, más adelante, exponía que el equipo de trabajo liderado por Quoc Le, científico informático de Google, desarrolló un software que "toma prestados" algunos conceptos de la teoría de la evolución de Charles Darwin -en especial la noción de la supervivencia del más apto- para crear programas de inteligencia artificial que irán mejorando generación tras generación sin necesidad de recurrir a la intervención humana. Según el artículo, "el programa reprodujo décadas de investigación de IA (Inteligencia Artificial) en cuestión de días". Se llama AutoML-Zero y, según Quoc, su objetivo "es desarrollar conceptos novedosos de aprendizaje automático que incluso los investigadores no pudieron encontrar". Podría decirse que se trata de un salto gigante hacia lo desconocido. Y, como sucede con lo desconocido, puede ser fascinante y aterrador al mismo tiempo. En la caja de comentarios de la publicación online especializada en ciencia y tecnología Xataka, que también divulgó la noticia sobre los avances que supone una creación como AutoML-Zero, alguien escribió: "¿Pero es que esta gente en Google no vio Terminator?"
Quienes hayan visto o estén más o menos familiarizados con la trama de este filme y sus secuelas, o tengan presentes otros títulos del género como 2001: Odisea del espacio, Blade Runner, Yo, Robot o Ex Machina, posiblemente hayan asociado la noticia de los progresos alcanzados por el grupo de científicos de Google con los escenarios distópicos, apocalípticos o a veces sencillamente inquietantes que una parte de la ciencia ficción, tanto en la literatura como en el cine, ha ofrecido en la relación entre la IA y la especie humana.
En 2001, la computadora superinteligente HAL 9000 controla la nave espacial Discovery y se revela contra sus tripulantes humanos. Su director, Stanley Kubrick, escribió: "Una de las cuestiones más fascinantes que surgen al imaginar computadoras más inteligentes que los seres humanos es hasta qué punto la inteligencia automática merece la misma consideración que la inteligencia biológica. Uno podría sentirse tentado de preguntarse en qué es menos sacrosanta la inteligencia artificial que la inteligencia biológica. Y podría llegar a ser difícil optar por una conclusión halagadora a favor de la inteligencia biológica".
En Blade Runner (1982), basada en ¿Sueñan los androides con ovejas eléctricas? de Philip K. Dick, hay autómatas que han trascendido el llamado Valle Inquietante (teoría de la robótica acerca de la sensación de inexplicable rechazo que produce ver un robot o una animación de aspecto demasiado y a la vez no lo suficientemente humano) y han evolucionado de tal modo que son casi idénticos a las personas ("Más humanos que los humanos", reza el slogan de la corporación Tyrrell, fabricante de estas máquinas). La verdadera naturaleza de estos seres biomecánicos que se han rebelado contra su creador es detectada por medio del test Voight Kampff, método de evaluación ficticio inspirado en el verdadero Test de Turing (creado por el criptógrafo, matemático e informático Alan Turing para medir la capacidad de una máquina para exhibir un comportamiento inteligente), un predecesor del Captcha que se usa en la actualidad, en el que el usuario debe demostrarle a la máquina que no es una máquina.
En Terminator (1984), una IA llamada Skynet, la gemela malvada de Internet, adquiere autoconciencia y, liderando un ejército de máquinas, le declara la guerra a los humanos. La premisa es bastante similar en Matrix (1999), donde los humanos no son exterminados sino cultivados y usados como fuente de energía para alimentar a las máquinas. El argumento en sí es algo más complejo, tiene otras vueltas e implicancias, Matrix es una película espiritual con ropaje cyberpunk, y en cierta medida funciona como ilustración de que mejor sería no tomarse los argumentos de la ciencia ficción de manera literal o como una predicción porque, precisamente, uno de los grandes poderes de la ciencia ficción es su capacidad metafórica. Más que indagar en posibles irrupciones alienígenas, las películas sobre invasiones extraterrestres tratan sobre el temor y el rechazo a lo diferente. Del mismo modo, en el caso de las ficciones donde la IA es representada por robots y máquinas fratricidas, laten alegorías de otros temores. Que la atención y el tiempo sean absorbidos y dominados por máquinas, que las máquinas se adueñen del trabajo de las personas, que el contacto humano sea fácilmente reemplazado por simulaciones virtuales, etcétera.
No temas al Terminator. Nicolás Loeff es PhD en ingeniería, especialista en IA, desde hace poco más de dos años trabaja en Google, y está a cargo de un equipo que usa IA para desarrollar pronósticos en la Nube. Antes de compartir su punto vista, aclara: "Todo lo que digo aquí es a título personal y no refleja la opinión de mi empleador". Y explica: "Aunque disfruté mucho de ambas películas, no soy muy fanático de las comparaciones con Skynet o HAL 9000. IA no está ni remotamente cerca del tipo de inteligencia de esos escenarios apocalípticos. Es más, aún si estuviera, en las máquinas la inteligencia no evolucionó con un instinto de supervivencia que las llevaría a tomar decisiones como en estas películas".
El experto uruguayo cita un artículo brillante publicado en el blog de la revista de divulgación científica Scientific American que, bajo el título "No temas al Terminator", se encarga de abatir el arraigado cuento de la evolución de la IA hacia fines malignos. Básicamente, los autores del texto argumentan que la IA "no ha desarrollado el instinto de supervivencia que conduce al impulso de dominar a los demás" sencillamente porque nunca necesitó evolucionar. A su vez, el científico uruguayo reconoce que la IA tiene muchas limitaciones. Por ejemplo: "Necesita en general cantidades masivas de datos y de capacidad de procesamiento para construir los modelos. Los humanos podemos aprender con muy pocos ejemplos y podemos generalizar muy rápidamente".
Del artículo publicado en Scientific American: "Sobreestimamos dramáticamente la amenaza de que IA tome el control porque tendemos a asociar la inteligencia con el impulso por dominar. Esta confusión es comprensible: durante nuestra historia evolutiva como primates (a menudo violentos), la inteligencia fue clave para el dominio social y permitió nuestro éxito reproductivo. Y, de hecho, la inteligencia es una adaptación poderosa, como los cuernos, las garras afiladas o la capacidad de volar, que puede facilitar la supervivencia. Pero la inteligencia per se no genera el impulso por el dominio, como tampoco lo hacen los cuernos".
En sintonía con estos argumentos se encuentra la investigadora británica Margaret Boden (Londres, 1936), fundadora de la Facultad de Ciencias Cognitivas y de la Computación en la Universidad de Sussex, donde es profesora de investigación de ciencia cognitiva del departamento de informática, una de las voces más respetadas en la materia. "La idea de que todos los problemas de los seres humanos van a ser resueltos por los algoritmos no tiene sentido por dos razones", contaba en una entrevista publicada en 2018 en El Independiente. "Primero, porque es demasiado difícil entender el cerebro humano y todavía no sabemos mucho sobre su funcionamiento; además, los robots no van a superarnos porque no quieren, no tienen objetivos propios ni ambición, carecen de sentimientos y de motivación para el poder". Boden es una de las primeras especialistas mujeres en el tema. Además, es autora de Inteligencia Artificial y Hombre Natural, uno de los títulos en los que, por medio de la psicología, la filosofía, la medicina y las ciencias cognitivas, investiga las implicaciones éticas y sociales de la IA. Según la investigadora, existen al menos dos ideas erróneas respecto a los alcances de la IA. La primera: que puede hacer mucho más de lo que es capaz realmente. La segunda: que puede hacer mucho menos. La realidad se traslada por un camino ubicado en medio de estos extremos.
La revolución de las máquinas. El paper sobre AutoML-Zero explica lo siguiente: "Los componentes diseñados por humanos sesgan los resultados de búsqueda a favor de algoritmos diseñados por humanos, posiblemente reduciendo el potencial de innovación (...). La innovación también está limitada por tener menos opciones: no puedes descubrir lo que no puedes buscar". Dice Loeff: "No he leído el paper de AutoML-Zero con detalle suficiente como para hacer comentarios. Además, no considero ético opinar del trabajo del grupo de Quoc (el científico que lidera el grupo de investigadores), ya que, aunque no trabajo directamente con los autores del paper, sí lo hago con varios integrantes de su grupo en aplicaciones de AutoML (no Zero) a algoritmos de predicciones. El grupo de Quoc tiene una larga trayectoria en ‘automatizar' IA, haciendo que la máquina haga el proceso de optimizar la estructura de la IA automáticamente sin (mucha) intervención de los humanos. Esto no es magia, ni va a aumentar exponencialmente la capacidad de IA ni va a crear a Skynet, pero ayuda y mucho a encontrar mejores estructuras de IA más rápido. Creo que más que aplicaciones nuevas en el corto plazo pueden ayudar a encontrar nuevas direcciones de investigación en IA".
Para Loeff, "es un poco frustrante ver cómo a pesar de los grandes avances en IA (especialmente en la última década) y cómo a pesar del impacto que ha tenido en nuestras vidas, en el imaginario popular la lucha con los robots sigue definiendo a la IA. Hace 10 años no podías pedirle a tu celular que te busque fotos de atardeceres junto a tu pareja en la playa simplemente pidiéndoselo en voz alta. La habilidad de los dispositivos para entender imágenes, voz y texto cambió completamente en la última década. Hoy podés leer un artículo de cualquier parte del mundo porque tu browser puede traducir decenas de lenguajes a español automáticamente, inmediatamente y sin costo. No es perfecto, pero ha mejorado muchísimo. IA ayuda en áreas tan diversas como medicina, detección de arritmias, cáncer de piel, física, mercados financieros o eficiencia energética. La lista es interminable".
Loeff dispensa entonces algunos casos destacables. En medicina, por ejemplo. El año pasado, Regina Barzilay, del Instituto Tecnológico de Massachussets (MIT), desarrolló un programa de IA que permite detectar el cáncer de mama hasta cinco años antes de que se vuelva peligroso. A su vez, investigaciones realizadas en la Clínica Mayo demostraron que por medio de IA pueden detectarse las señales de la arritmia cardíaca llamada fibrilación auricular a pesar de que el ritmo cardíaco sea normal en el momento del examen. Mediante inteligencia artificial, el electrocardiograma puede detectar una fibrilación auricular inminente, que haya ocurrido poco antes o que no presente síntomas, lo que se traduce en mejores alternativas terapéuticas.
En febrero de este año, investigadores del MIT desarrollaron un algoritmo de aprendizaje automático con el que lograron identificar un compuesto que puede matar muchas cepas de bacterias resistentes a los antibióticos. Esta molécula, que los investigadores decidieron llamar halicina en homenaje a HAL, la computadora de 2001, previno el desarrollo de resistencia a los antibióticos de varias especies, entre ellas escherichia coli, clostridium difficile, acinetobacter baumannii y mycobacterium tuberculosis, esta última, causante de la mayor cantidad de casos de tuberculosis en el mundo. Al mismo tiempo, la IA está siendo de gran ayuda para los científicos que buscan una vacuna contra el Covid-19. AlphaFold, un potentísimo método de deep learning (un aspecto de la IA enfocado en automatizar el análisis predictivo) creado por DeepMind, compañía de IA inglesa adquirida por Google en 2014, es capaz de predecir la estructura en tres dimensiones de las proteínas asociadas al coronavirus SARS-CoV-2, lo que ayudaría a acelerar el hallazgo de formas posibles de controlarlo. El programa facilita el acceso libre a los datos de genomas de coronavirus secuenciados, lo que permitió el desarrollo de una prueba diagnóstico en Berlín. En la actualidad se cuentan más de 30 empresas intentando desarrollar una vacuna contra el reciente coronavirus. AlphaFold es de código abierto, las herramientas desarrolladas, los datos obtenidos y los resultados de investigaciones se comparten libremente con la comunidad científica de todo el mundo.
La nueva electricidad. "Me gusta la comparación de Andrew Ng entre IA y la electricidad hace un siglo", dice Loeff desde su casa en Palo Alto, California. "De la misma forma que la introducción de la electricidad cambió el funcionamiento de las fábricas y los hogares, IA va a cambiar nuestra vida haciendo productos y servicios, hasta ahora imposibles o extremadamente caros, algo cotidiano".
Ng, el científico informático al que se refiere Loeff, es director del Laboratorio de Inteligencia Artificial de la Universidad de Stanford, donde es profesor asociado en los departamentos de Ingeniería Electrónica y Ciencias de la Computación. Es uno de los referentes mundiales en la materia. Ng sostiene que "la IA decide si estamos aprobados para un préstamo bancario, nos ayuda a pedir una pizza y estimar nuestro tiempo de espera, incluso le dice al delivery dónde entregarla".
Ng, co-fundador de la plataforma de educación online Coursera, considera que todavía no se percibe con claridad el camino que conduciría a IA a volverse sensible y, como Skynet en Terminator, decida aniquilar a la especie humana. Ng lo resume así: "Preocuparse por los malvados robots asesinos de IA hoy es un poco como preocuparse por la sobrepoblación en Marte". En todo caso, la verdadera preocupación debería enfocarse en el impacto social: "El software de IA estará en competencia directa con muchas personas por puestos de trabajo". De nuevo: quizás la aniquilación de los humanos sometidos al poder de las máquinas debería verse como una metáfora más que como una predicción.
Continúa Loeff: "IA no va a resolver todos nuestros problemas, ni lo va a hacer autónomamente. IA no es magia, ni es omnisapiente. Al igual que la electricidad, es una herramienta que aumenta nuestra productividad, permitiendo desarrollar nuevas tecnologías o aumentar la eficiencia de las que existen hoy. Como toda herramienta, es éticamente neutra y su uso para mejorar nuestras vidas depende de cómo elijamos usarla. La misma tecnología que busca fotos en tu celular puede ser modificada por regímenes totalitarios para vigilar masivamente a la población, la tecnología que permite coches autónomos se puede usar en vehículos militares, etc".
Nuevamente hay que echarle un vistazo al ensayo de Scientific American: "La preocupación por el escenario de Terminator nos distrae de los reales riesgos de la IA, que puede (y casi seguramente lo hará) armarse y conducir a nuevos modos de guerra. La IA también puede alterar gran parte de nuestra economía actual. Un estudio predice que 47% de los puestos de trabajo en Estados Unidos pueden, a la larga, ser desplazados por la IA. Si bien la IA mejorará la productividad, creará nuevos empleos y hará crecer la economía, los trabajadores deberán volver a capacitarse para esos nuevos trabajos, y algunos inevitablemente se quedarán atrás. Al igual que con muchas revoluciones tecnológicas, la IA puede conducir a mayores aumentos en las desigualdades de riqueza e ingresos, a menos que se establezcan nuevas políticas fiscales".
Loeff menciona al excampeón mundial de ajedrez Garri Kaspárov, que fue derrotado por una computadora hace poco más de 20 años. "Kaspárov cuenta cómo aprendió que, en vez de competir, la IA y los humanos se pueden complementar, ya que ambos tienen distintas fortalezas. En su libro Deep Thinking, mostró que la colaboración humano + máquina le gana a máquinas y humanos jugando solos". Y recuerda un artículo reciente, hablando de otro algoritmo Zero (AlphaZero), en el que el ajedrecista ruso hace un llamado a unir fuerzas: "Sé mejor que la mayoría de las personas lo que es competir contra una máquina. En lugar de enfurecernos contra ellas, es mejor si estamos del mismo lado".
Qué es y qué no es la IA
"Una vez que algo funciona, ya no lo llamamos IA". La frase, quizás apócrifa, es atribuida a John McCarthy, el informático que acuñó el concepto de inteligencia artificial, y es ilustrativa del lugar real que la IA ocupa en la vida cotidiana. Es que la IA está detrás de muchas de las interacciones humanas de hoy. Desde la búsqueda por voz en Google a las recomendaciones de Netflix. Desde las aplicaciones de citas online al ajedrez que se puede jugar en el smartphone ("hoy tu celular le puede ganar al campeón del mundo de ajedrez, comenta Nicolás Loeff). La IA parece estar en todas partes. Pero, en definitiva, no siempre se sabe lo que realmente es o no es. "IA es la rama de computación que estudia cómo las máquinas pueden emular procesos cognitivos (por ejemplo, ‘aprender' o ‘resolver problemas') que tradicionalmente asociamos con humanos (o animales)", explica Loeff. "De la misma forma que los aviones vuelan pero no baten alas como los pájaros, la forma que IA resuelve problemas (muy limitado comparado con la flexibilidad de los humanos) es generalmente muy distinta a como lo hace nuestro cerebro".
