Abrís los comentarios de una nota o de una publicación en Instagram, entrás a un grupo de Facebook de tu barrio o scrolleás un hilo en X, y de pronto te encontrás con 50 perfiles que opinan casi lo mismo y se retroalimentan. Todos tienen fotos que parecen reales, nombres creíbles, historias de vida coherentes. Y entonces pensás: “¿seré yo el que está equivocado?”. Pero esa sensación, advierte la ciencia, puede estar fabricada.
El emprendedor y divulgador argentino Santiago Bilinkis, referente regional en temas de tecnología e inteligencia artificial, lo planteó esta semana en su cuenta de X con una advertencia incómoda: “La próxima vez que estés tipeando con furia en un foro de fútbol o discutiendo política en un grupo de Facebook, frená un segundo. Es muy probable que estés peleando con un algoritmo”.
Bilinkis se apoyó en un estudio publicado en la revista Science, firmado por 22 destacados investigadores de ocho países —entre ellos la Nobel de la Paz 2021 Maria Ressa—. El trabajo, titulado “Cómo los enjambres de IA maliciosas pueden amenazar la democracia”, describe un fenómeno que ya no pertenece a la ciencia ficción: los enjambres de inteligencia artificial.
Del bot torpe al enjambre coordinado
Durante años, los bots fueron cuentas automatizadas relativamente fáciles de detectar: repetían frases idénticas, no tenían seguidores, tenían patrones mecánicos, usaban mal el idioma. Pero lo que describe el nuevo estudio es otra cosa: son redes de agentes de IA impulsados por modelos de lenguaje (como los de ChatGPT o Gemini) que trabajan coordinados, mantienen identidades coherentes, adaptan su tono al entorno que infiltran y pueden operar con supervisión humana mínima.
Cada uno de estos agentes es como una “persona” digital construida al detalle: nombre, biografía, forma de escribir, gustos, incluso contradicciones humanas. Y no actúan solos: conversan entre sí, se refuerzan, se responden, simulando una comunidad real, informa el sitio Science Daily en base al informe.
El peligro de creer que todos piensan igual menos yo
El concepto central que introducen los investigadores es el de “consenso sintético”. En lugar de gritar una consigna única, los enjambres lanzan múltiples variantes de un mensaje, miden cuál genera más reacciones y amplifican las que funcionan mejor. “También son capaces de realizar millones de experimentos a pequeña escala para determinar qué mensajes son más persuasivos”, dice el sitio y agrega que, de ese modo, pueden “perfeccionar sus estrategias de comunicación en tiempo real y generar lo que parece ser un amplio consenso público”.
El resultado es una mayoría fabricada, como resume Bilinkis: "Te inventan una mayoría para que vos, que sos una persona de carne y hueso, te canses, te frustres y termines cerrando la pestaña pensando que no vale la pena opinar”.
Y esa consecuencia, aunque pueda parecer banal, no lo es. Penslo así: si cada vez que vas a expresar tu opinión sentís que estás equivocado, o 50 “personas de IA” (que vos creés que son reales) te dicen que lo que viste no pasó, o que tu interpretación es delirante, puede ocurrir algo muy parecido al “gaslighting”. Esa palabra, que es cada vez más usada, es una forma de abuso psicológico donde se induce a la víctima a dudar de su propia percepción y puede tener consecuencias psicológicas importantes.
Antes, ese fenómeno era algo del mundo “offline”, era una dinámica de parejas o familias; pero ahora encontró la forma de desplegarse contra miles de personas a la vez.
Un estudio publicado hace pocos meses indicó que se pudo identificar que, por medio del gaslighting, se llega a sembrar la sospecha de que la otra persona no entiende bien lo que está viviendo y eso afecta a su comportamiento posterior. Se lo hace desconfiar de sus recuerdos o de sí mismo y esto puede tener efectos graves a nivel personal y social.
Además, hay otra consecuencia posible, que es la del aislamiento en caso de personas que no se animan a sostener su opinión frente a las decenas de contrarios. Esto puede derivar en lo que se denomina “espiral de silencio” que, como cita el sitio Psicología y Mente, “se debe principalmente a dos tipos de miedo: el que sentimos a quedarnos aislados socialmente y el temor a consecuencias aún más significativas”.
Y además es peligroso para la democracia
El estudio advierte que los enjambres pueden usarse para cuestiones muy sensibles en la vida de las sociedades:
- empujar agendas políticas haciéndolas pasar por clamor popular
- acosar y expulsar a voces disidentes
- degradar la confianza general en lo que leemos online
Frente a eso, los autores proponen medidas concretas como cambios en el diseño de las plataformas para dificultar la coordinación encubierta o que se creen herramientas que permitan verificar si un mensaje fue escrito por una persona, entre otros.
Pero mientras los gobiernos y las plataformas debaten, hay una tarea más privada y urgente para cada usuario. La próxima vez que una discusión online te genere esa sensación de estar remando en dulce de leche contra una pared de opiniones idénticas, vale la pena preguntarse, como propone Bilinkis: “¿Ese usuario que está del otro lado existe o, en realidad, sos el único ser humano en una charla de máquinas?”.
Acerca de los comentarios
Hemos reformulado nuestra manera de mostrar comentarios, agregando tecnología de forma de que cada lector pueda decidir qué comentarios se le mostrarán en base a la valoración que tengan estos por parte de la comunidad. AMPLIAREsto es para poder mejorar el intercambio entre los usuarios y que sea un lugar que respete las normas de convivencia.
A su vez, habilitamos la casilla [email protected], para que los lectores puedan reportar comentarios que consideren fuera de lugar y que rompan las normas de convivencia.
Si querés leerlo hacé clic aquí[+]