Un estudio muestra que modelos como ChatGPT superan a personas en debates si tienen datos del oyente. .

Un estudio muestra que modelos como ChatGPT superan a personas en debates si tienen datos del oyente.

Un estudio publicado en la revista Nature Human Behaviour reveló que los modelos de lenguaje basados en inteligencia artificial (IA), como ChatGPT, pueden alcanzar niveles de persuasión superiores a los de los humanos cuando se les proporciona información personalizada sobre su interlocutor.

La investigación, realizada con 900 ciudadanos estadounidenses de diversos perfiles demográficos, consistió en enfrentar a los participantes en debates online con otros humanos o con la IA, sobre temas polémicos como la prohibición de los combustibles fósiles. En aquellos casos donde la IA contaba con datos como género, edad, afiliación política o nivel educativo del oponente, logró ser más convincente que una persona en el 64,4 % de los casos.

Cuando no se le entregó esta información personalizada, su rendimiento fue equivalente al de los humanos. Los investigadores concluyen que esta capacidad de adaptar de forma instantánea y a gran escala los argumentos otorga a la IA una ventaja significativa, especialmente en ámbitos como el marketing, la propaganda política o las redes sociales.

Riesgos de la persuasión algorítmica

El estudio advierte sobre los riesgos de manipulación encubierta que estas capacidades implican. A diferencia de los humanos, que requieren tiempo para modular sus mensajes, los modelos de IA pueden adaptar su discurso con precisión quirúrgica, generando una influencia potencialmente desproporcionada.

Expertos consultados por el Science Media Centre subrayan que el hallazgo debe alertar a reguladores, plataformas y legisladores. Carlos Carrasco, profesor en la Escuela de Negocios de Toulouse, advirtió que “los mecanismos de personalización son extrapolables a contextos como el español, con fuerte presencia digital y creciente polarización social”.

Por su parte, David Losada, del CiTIUS en la Universidad de Santiago de Compostela, remarcó que “estas herramientas pueden usarse con fines legítimos, como fomentar hábitos saludables, pero también con objetivos ilícitos, como manipular la opinión pública”.

Una cuestión ética urgente

El uso de la IA como agente de persuasión reaviva el debate ético en torno al desarrollo y despliegue de estas tecnologías. El estudio propone que se establezcan medidas claras para identificar, auditar y regular el uso de modelos de lenguaje en contextos persuasivos, en especial cuando estén dirigidos a audiencias vulnerables o se utilicen con fines políticos.

Este tipo de aplicaciones persuasivas de la IA, ya en marcha en múltiples plataformas, exige un marco normativo que acompañe su avance técnico, minimice los riesgos de manipulación y garantice la transparencia en los entornos digitales donde cada vez más se forman opiniones públicas y decisiones sociales.

En base a EFE

Más de Tecnología
El que puede, puede

El que puede, puede

De paso cañazo

De paso cañazo

Uso limitado

Uso limitado

Se comieron la pastilla

Se comieron la pastilla