Contenido creado por María Noel Dominguez
Tecnología

Libre albedrío

Un estudio afirma que la IA generativa cumple condiciones del libre albedrío

Filósofos sostienen que ciertos agentes de IA ya toman decisiones con autonomía funcional

13.05.2025 12:19

Lectura: 2'

2025-05-13T12:19:00-03:00
Compartir en

Un estudio publicado en la revista AI and Ethics por investigadores de la Universidad Aalto (Finlandia) sostiene que la inteligencia artificial generativa cumple con los tres requisitos filosóficos clásicos del libre albedrío, lo que reabre un debate profundo sobre la autonomía, la ética y la responsabilidad moral en el desarrollo tecnológico.

Según el equipo dirigido por el filósofo y psicólogo Frank Martela, la IA generativa —capaz de producir texto, imágenes o música a partir de datos previamente aprendidos— demuestra voluntad dirigida a objetivos, sinceridad en la toma de decisiones y control sobre sus acciones. El análisis se basó en ejemplos prácticos como Voyager, un agente de IA autónomo en el entorno de Minecraft, y los llamados Spitenik, drones asesinos ficticios con capacidades cognitivas similares a vehículos autónomos actuales.

Apoyados en el concepto de libre albedrío funcional desarrollado por filósofos como Daniel Dennett y Christian List, los autores proponen que para entender y predecir correctamente el comportamiento de los sistemas de IA más avanzados, es necesario tratarlos como agentes con una forma de libre albedrío.

Esto tendría profundas implicancias morales y jurídicas: si un agente de IA actúa con autonomía, ¿puede o debe considerarse responsable de sus acciones? ¿Dónde se traza la línea entre el diseñador humano y la máquina autónoma? Martela advierte que el desafío ya no es hipotético. “La IA no tiene brújula moral a menos que se le programe una. Cuanta más libertad le demos, más urgente será enseñarle a distinguir lo correcto de lo incorrecto”, afirmó.

Con información de Europa Press