Un estudio publicado en la revista JAMA Network Open revela que los grandes modelos de lenguaje (LLM), como GPT-4, muestran un potencial prometedor para identificar riesgos de salud mental, incluyendo depresión y suicidio, en pacientes que ya están bajo tratamiento psiquiátrico. La investigación, realizada por un equipo científico de Corea del Sur, analiza cómo herramientas de inteligencia artificial pueden procesar narrativas subjetivas para detectar patrones de riesgo con precisión creciente.
El estudio se centró en 1.064 pacientes psiquiátricos entre 18 y 39 años, que completaron formularios de autoevaluación y ejercicios de frases incompletas, técnica que explora percepciones del yo y de las relaciones personales. Los datos fueron procesados por modelos de lenguaje de última generación, entre ellos GPT-4, Gemini 1.0 Pro, Google Deepmind, y técnicas de text embedding como text-embedding-3-large de OpenAI.
Un avance prometedor, pero con limitaciones
Los autores subrayan que, aunque los resultados indican una capacidad destacada para detectar señales tempranas de sufrimiento psíquico, su aplicación clínica directa aún no es viable, dado que requiere mejoras en seguridad, precisión y validación externa. La advertencia apunta especialmente a evitar interpretaciones erróneas en contextos clínicos donde las consecuencias pueden ser críticas.
El especialista español Alberto Ortiz, del Hospital Universitario La Paz, destacó que los datos analizados corresponden a pacientes ya diagnosticados y en tratamiento, por lo que no es posible extrapolar los resultados a la población general sin más investigaciones. En declaraciones al Science Media Centre, Ortiz valoró positivamente la apuesta por la narrativa subjetiva como núcleo de análisis, pero recalcó los límites de la tecnología en la práctica terapéutica real:
“Una cosa es detectar riesgos y hacer un cribado, y otra muy distinta es tratar a las personas con sufrimiento psíquico, una tarea que va más allá de aplicar una solución tecnológica”, sostuvo.
Implicancias éticas y futuras aplicaciones
Este tipo de estudios abre nuevas posibilidades en la detección temprana de trastornos mentales, especialmente en sistemas de salud con recursos limitados o alta demanda. Sin embargo, plantea desafíos éticos en torno a la privacidad, el consentimiento informado y la supervisión profesional, fundamentales para que estas herramientas no sustituyan el juicio clínico, sino que lo complementen.
En América Latina, donde los servicios de salud mental suelen estar subfinanciados, esta tecnología podría en el futuro contribuir a mejorar el acceso a diagnósticos iniciales, siempre que se respeten estándares éticos y regulatorios apropiados.
Con información de EFE