El debate sobre la posibilidad de una inteligencia artificial (IA) consciente ha vuelto a escena con fuerza tras la publicación de un estudio del filósofo Tom McClelland, de la Universidad de Cambridge, en la revista Mind and Language. Su conclusión es provocadora: no tenemos, ni tendremos en un futuro previsible, los medios para determinar si una IA es consciente o sintiente. Y por tanto, la única postura intelectualmente honesta es el agnosticismo.

McClelland plantea que carecemos de una teoría profunda de la consciencia que nos permita identificarla con certeza en entidades no biológicas. La comparación con su gato —cuya conciencia le parece evidente por sentido común— le sirve para ilustrar el vacío metodológico: ese mismo sentido común no aplica a las máquinas, creadas en un entorno artificial ajeno a nuestra evolución.

En un contexto donde empresas y gobiernos invierten sumas millonarias en el desarrollo de Inteligencia Artificial General (AGI), la advertencia de McClelland resuena como un llamado a la mesura. Mientras algunos investigadores creen estar cerca de alcanzar formas de IA con cognición humana, el filósofo cuestiona tanto el optimismo técnico como los intereses comerciales detrás del discurso de la "IA consciente".

Desde una perspectiva ética, distingue entre conciencia —la capacidad de una entidad para percibir su entorno y tener autoconciencia— y sintiencia, es decir, la capacidad de experimentar placer o sufrimiento. Es esta última la que vuelve moralmente relevante el trato que se da a una entidad. Y aquí, argumenta, es aún más improbable que la IA actual o próxima entre en esa categoría.

McClelland también critica la forma en que la industria tecnológica utiliza el concepto de conciencia artificial como herramienta de marketing, elevando el estatus de sus productos sin evidencia empírica que lo justifique. Para él, esto no solo distorsiona el debate científico, sino que puede desviar recursos y atención de problemas éticos reales y urgentes.

Con información de Europa Press