Contenido creado por María Noel Dominguez
Tecnología

Extraño las cosas simplres

Científicos comprueban que la IA aún no iguala el razonamiento humano complejo

Un estudio publicado en Nature revela que los modelos de IA fallan en preguntas que exigen comprensión conceptual profunda.

05.02.2026 12:09

Lectura: 3'

2026-02-05T12:09:00-03:00
Compartir en

Un equipo internacional de científicos comprobó que la inteligencia artificial (IA) sigue cometiendo errores cuando debe responder preguntas que requieren razonamiento conceptual y no simples búsquedas de información, lo que evidencia que aún no alcanza el nivel del pensamiento humano en tareas académicas complejas.

Según informó este jueves la Universidad de Granada (UGR), la investigación buscó determinar si los actuales grandes modelos de lenguaje (LLM, por sus siglas en inglés) poseen una verdadera capacidad de resolución creativa o si su funcionamiento se limita a una gestión sofisticada de datos obtenidos de internet.

Para ello, la comunidad científica diseñó una batería de preguntas de alta complejidad técnica y conceptual en el marco del estudio Humanity’s Last Exam (“El último examen de la humanidad”), cuyos resultados fueron publicados en la revista Nature. El trabajo reunió a unos 1.100 científicos de distintas áreas de la ciencia y las humanidades, entre ellos la investigadora española María Cruz Boscá, de la UGR.

Las preguntas planteadas tenían respuestas conocidas, inequívocas y verificables, pero no podían resolverse mediante una búsqueda rápida en la red. El objetivo fue evaluar si la IA podía afrontar problemas que exigen comprensión profunda y razonamiento abstracto.

Los resultados mostraron que, incluso los modelos más avanzados, tropiezan con conceptos científicos complejos y reproducen errores presentes en manuales clásicos. Esto deja en evidencia una diferencia significativa entre las capacidades actuales de los sistemas de IA y las de los expertos humanos en diversos campos académicos.

En el ámbito de la física cuántica, por ejemplo, la profesora Boscá explicó que la IA no logró seleccionar las respuestas correctas cuando debía aplicar una comprensión conceptual profunda. En una pregunta vinculada a la paradoja de Einstein-Podolsky-Rosen, el sistema falló al asumir una realidad objetiva en la medición, en contradicción con los principios cuánticos. En otro caso, relacionado con el experimento de Stern-Gerlach, la IA repitió un error factual común en numerosos textos científicos, demostrando su tendencia a perpetuar fallos bibliográficos.

A pesar de estas limitaciones, la investigadora destacó que los modelos más avanzados ya han superado la simple búsqueda de información y comienzan a realizar análisis reflexivos complejos a partir de los datos disponibles.

“El verdadero hito llegará cuando la IA no solo deje de cometer errores sobre el conocimiento establecido, sino cuando sea capaz de formular nuevas preguntas y ofrecer respuestas a problemas científicos que hoy los humanos todavía no hemos logrado resolver”, concluyó Boscá.