Por Delfina Montagna | @delfi.montagna

¿Qué significa "inteligencia artificial" para el marketing, para un programador o para un filósofo? ¿Qué tan nuevo, innovador o revolucionario es este concepto? ¿Va a ayudar o incluso mejorar al ser humano? ¿Cómo va a afectar el trabajo? ¿Es acertado decir que aprende, que alucina, que funciona con “redes neuronales”? ¿Con qué datos trabaja? ¿Se los estamos entregando a conciencia? ¿Qué significa “inteligencia” a secas?

Apostando por la combinación entre ciencia y diseño, El Gato y La Caja se propone estar a la altura de las exigencias de nuestra época, desarrollando narrativas, formatos y difusión científica para un tiempo de crisis climática, aceleración tecnológica y reformulación de identidades culturales. La apuesta por el acceso abierto y gratuito es política y cultural: divulgar ciencia no es solo explicar, también es democratizar —por eso sus libros, además de existir en edición física, están disponibles en su web—. Ok, Pandora (2025), una de sus últimas ediciones, encarna esa misión en un tema en el cual la opacidad abunda: la inteligencia artificial.

La respuesta de Ok, Pandora está lejos de ser unívoca. Seis ensayos, seis autores, seis formas de desmenuzar el fenómeno desde la filosofía, la computación, la neurociencia o la política. El resultado es una exploración amplia sobre sus dilemas: los sesgos en los datos, la ideología del transhumanismo, el rol de la gobernanza, el riesgo de la monopolización y la persistente tentación de imaginar a las máquinas como seres con consciencia. Detrás de cada disciplina y cada perspectiva de análisis, hay ejes transversales que perduran como cuestiones de fondo.

Maximiliano Zeller recuerda con entusiasmo su participación. Fue la primera vez que lo invitaron a un proyecto colectivo de El Gato y La Caja, lo que le permitió trabajar con colegas cercanos y conocer a otros autores con los que intercambió ideas valiosas. Para Tomás Balmaceda, en tanto, el valor estuvo en abrir debates en un formato de divulgación accesible: “La inteligencia artificial no es solo una herramienta, sino un fenómeno cultural y ético que redefine lo que significa ser humano”. Zeller subraya además el rol del equipo editorial, que logró equilibrar precisión y alcance en un libro destinado al público amplio.

La fantasía de lo imparcial

Existen asociaciones recurrentes entre la tecnología, los datos y cierta idea de neutralidad. Como advierte Consuelo López en el capítulo introductorio, muchas veces esperamos que la IA tome decisiones moralmente neutras, cuando ni siquiera los humanos logramos hacerlo.

Los seis ensayos coinciden en que los sesgos aparecen en todas las etapas: desde la detección de un problema hasta la elección de datos, pasando por la composición de los equipos de diseño. López señala, por ejemplo, que al momento de escribir su texto la junta directiva de OpenAI estaba compuesta solo por hombres blancos. Aclara: “Al moldear el mundo a través de los datos, los sistemas de IA necesariamente producen y reflejan una visión normativa del mundo”.

Zeller explica que reconocer los sesgos humanos es sencillo, pero que no siempre resulta evidente que las máquinas también los reflejan. Esa dificultad, dice, requiere cierta educación o conocimiento previo, y sintetiza: “¿Cómo es que algo sin intencionalidad podría engañarme? Si acaso no puede querer hacerlo, si no tiene intereses 'realmente propios', es difícil ver cómo es que podría no ser objetivo. Parece claro que una locomotora no puede tener intereses en que llegue a tiempo a destino, o que el lavarropas quiera darme la ropa limpia o no, pero sí es un poco más claro que sus diseñadores sí tienen valores e intenciones como eficiencia energética, accesibilidad, durabilidad —obsolescencia programada—, etc.”. Además, especifica que —con el cambio de grado que implica el procesamiento algorítmico de miles de millones de datos— se ocultan aún más las intenciones, no solo de quien diseña las máquinas, sino de los datos que se toman para su entrenamiento.

En paralelo, Balmaceda apunta al lenguaje con que hablamos de estas tecnologías. Advierte que expresiones como “la IA alucina” o “ChatGPT piensa”, incluso la palabra “inteligencia” generan una ilusión de subjetividad. Ese vocabulario no es inocente: moldea la percepción pública y condiciona su adopción social.

En sus palabras, “estas metáforas ocultan el hecho de que se trata de procesamiento estadístico. Construir un lenguaje más preciso y crítico para hablar de la IA no solo es posible, sino que es una tarea ética fundamental. La divulgación filosófica busca precisamente esto: dotar de sentido a problemas complejos para que cualquier persona pueda entenderlos y participar en el debate”.

Aclara que la empatía de un chatbot no es emoción, sino imitación de patrones, y que la filosofía puede ayudarnos a pensar con mayor precisión. “No se trata de usar términos técnicos que nadie entienda, sino de reemplazar las metáforas engañosas por descripciones más honestas”, explica.

Zeller también advierte que la forma en que se presentan estas herramientas contribuye a generar la ilusión de que son oráculos objetivos. Señala que la opacidad de su diseño y la imposibilidad de conocer las bases de datos refuerzan esa percepción. A menudo, dice, las empresas cultivan deliberadamente esa sensación de “magia”, porque genera dependencia y reduce cuestionamientos críticos. “Recién ahora está creciendo una consciencia crítica acerca de las respuestas de la IA, notando que se adaptan a los interlocutores y suelen querer confirmar sus puntos de vista”, resume.

En su ensayo sobre transhumanismo, Zeller analiza cómo esta corriente retoma la estructura de los mitos mesiánicos: promete perfección, asegura que está cerca y exige seguir la doctrina de sus voceros. Una de sus críticas más filosas es que el concepto de “mejoramiento” no es universal. Como sintetiza, “no es lo mismo ‘ser mejor’ para un hombre blanco de clase alta que para una mujer de clase baja que vive en el mundo subdesarrollado”. Así, advierte que el transhumanismo es, en gran medida, etnocéntrico y androcéntrico.

Otra narrativa que el libro discute es la del determinismo tecnológico, la idea de que las máquinas avanzan como fuerzas autónomas que nos moldean sin que podamos intervenir. Balmaceda la llama una “narrativa cómoda”, porque exime de responsabilidades. Para él, desarmar este mito es clave: primero, porque la tecnología nunca es neutral; segundo, porque nos devuelve la capacidad de agencia. “Si creemos que la máquina nos hace hacer, perdemos la capacidad de cuestionar, de rendir cuentas y de tomar control de nuestro propio futuro”, advierte.

Zeller coincide en la necesidad de complejizar el asunto. Explica que no se trata de elegir entre tecnología que nos determina o personas que controlan todo, sino de reconocer una retroalimentación constante. Propone pensar la tecnología en un sentido amplio, que incluye no solo computadoras o internet, sino también instituciones, ciencia, leyes o incluso la música. “Tanto los objetos materiales como inmateriales están imbricados de tal manera que no son separables, y en todos ellos se encuentran imbuidas las cuestiones valorativas y cambiantes”, observa. Y aunque se muestra pesimista sobre el alcance de esta toma de consciencia en la sociedad en general, enfatiza la importancia de que al menos los responsables políticos cuenten con mayor formación en estas cuestiones.

Cortesía de producción

Cortesía de producción

El nuevo oro digital

Consuelo López compara los datos con el petróleo del siglo XXI, aunque aclara que, a diferencia de este, son virtualmente infinitos y generados por millones de personas sin ser siempre conscientes de ello. Escuchar música en streaming o registrar actividades cotidianas se convierte en insumo para corporaciones que acumulan un poder sin precedentes.

Balmaceda desarrolla que ceder datos parece inofensivo, pero esa información se convierte en capital valioso. Menciona el concepto de “sociedad de la exposición” de Harcourt, donde asistimos voluntariamente a la desaparición de la privacidad tradicional. Lo preocupante, afirma, es que “la manera en la que nuestros datos e información se vuelve disponible en estos dispositivos nos somete a un control constante, erosiona nuestra intimidad y tiene consecuencias sociales y económicas profundas. Lo que no entendemos es que esta información, desde un like hasta una foto, es un activo valioso que se registra, analiza y comercializa a nuestras espaldas”.

Para dimensionar el alcance, recuerda que gran parte de nuestro tiempo y datos los entregamos solo a dos empresas: Google y Meta. Esa acumulación, sostiene, abre la puerta a lo que algunos teóricos como Nick Couldry y Ulises Mejias llaman “colonialismo de datos”, donde ya no se anexan territorios, sino información. “Esto tiene consecuencias directas: nuestra huella digital, que es imposible de borrar, puede crear o destruir carreras y reputaciones. La falta de transparencia de estos sistemas puede perpetuar sesgos y desigualdades. Por eso, la discusión no puede ser solo sobre la privacidad individual, sino sobre quién se beneficia realmente de estas tecnologías y cómo se perpetúan las estructuras de poder”, dijo en entrevista.

Los dueños del juego

Desde las ciencias sociales, el riesgo de monopolización y el rol del Estado aparecen como interrogantes centrales. Carolina Aguerre —doctora en Ciencias Sociales de la UBA— retoma a Stephen Hawking, quien advirtió que el impacto de la IA dependía de quién la controlara.

El científico de datos Julián Peller complementa con el concepto de “desarrollo diferencial”: garantizar que la seguridad y alineación de los modelos avance más rápido que sus capacidades. Aguerre, en tanto, examina iniciativas regulatorias de organismos como Unesco, OCDE o la Unión Europea, que buscan establecer consensos básicos para encauzar la innovación sin dejar todo librado al mercado.

Sobre el futuro y la consciencia

En su ensayo, el experto en neurociencia computacional Enzo Tagliazucchi analiza argumentos a favor y en contra de que una IA pueda tener consciencia. El lenguaje es el medio por el que comunicamos nuestras experiencias subjetivas, y la IA ya está en condiciones de afirmar o negar su propia consciencia, tal como se dio en el caso de LaMDA. Un modelo de lenguaje respecto del cual el ingeniero Blake Lemoine aseveró que se había vuelto sensible, lo que redundó en su despido por parte de Google.

Balmaceda retoma este interrogante señalando que la IA ya nos enfrenta a dilemas éticos concretos. Cree que la clave es preguntarnos a quién beneficia cada tecnología. “Hablar de ella abiertamente nos obliga a preguntarnos: ¿para quién es una mejora esta tecnología? ¿quién se beneficia y quién pierde? Porque, después de todo, la IA nos enfrenta a preguntas fundamentales sobre nosotros mismos. Al imitar la conversación y muchos de nuestros rasgos, nos obliga a repensar qué es lo que nos hace únicos. El debate público, con herramientas filosóficas como la duda, es nuestra mejor defensa para resistir la anestesia de un mundo que avanza rápido y, sobre todo, para recordar que las preguntas más difíciles sobre la IA son, en última instancia, preguntas sobre nuestra propia humanidad”, explica. 

En la misma línea, Peller alerta sobre los riesgos existenciales de la llamada AGI —inteligencia artificial general—. Su preocupación está en que estos sistemas puedan alterar de forma radical esferas centrales de la vida social como el trabajo o la política, sin que las sociedades estén preparadas para gestionarlo.

Un debate que recién empieza

En un panorama donde las grandes empresas tecnológicas se imbrican en una especie de carrera espacial y cada día surge una IA nueva, el trabajo colaborativo de El Gato y La Caja —y los autores— logró editar un libro que no perderá vigencia tan fácilmente, enfocándose en ejes fundamentales y abriendo un campo de preguntas más allá de la respuesta inmediata.

Balmaceda defiende la construcción de un lenguaje crítico como herramienta, para que el público general pueda participar activamente en la discusión sobre "cómo las tecnologías reconfiguran nuestra sociedad y nuestra propia humanidad”. 

Subraya también la importancia de una mirada situada: “Es vital que analicemos estos fenómenos desde nuestra propia realidad, con una visión de sur global que entiende que la tecnología no es neutral, sino que refleja los valores y desigualdades de las sociedades que la crean”.

Sin embargo, no conviene cantar victoria antes de tiempo. Este tipo de reflexiones siguen necesitando apoyo e incentivo. Maximiliano Zeller advierte: "Lamentablemente la reflexión filosófica en general —no solo acerca de la IA—, no suele tener mucho lugar en el debate público en nuestro país o región, salvo alguna excepcionalidad. En estos tiempos es aún peor, ya que estamos en el marco de una acción deliberada del gobierno actual que ha resuelto producir un suicidio académico general, desfinanciando a todas las instituciones productoras de conocimiento como el Conicet y las universidades, produciendo la fuga de miles de valiosos investigadores que costaron años de formación a toda la sociedad”.