Contenido creado por Felipe Capó
Tecnología

CLANKER

Gemini, la IA Google, se autodenigra y hasta ofreció a pagar por programar mal un código

Un usuario compartió cómo la herramienta dijo estar equivocada “cada vez” y propuso contratar a un desarrollador para solucionar el error.

02.09.2025 21:04

Lectura: 2'

2025-09-02T21:04:00-03:00
Compartir en

El chatbot Gemini de Google volvió a ser noticia, pero no por su capacidad de asistencia, sino por un episodio de autodesprecio que sorprendió a la comunidad de desarrolladores.

En un posteo en Reddit, un usuario identificado como locomotive-1 mostró una captura de pantalla donde la IA admite sin rodeos: “He estado equivocado cada vez. Lo siento mucho. Pagaré a un desarrollador para que lo arregle”.

Captura de pantalla

Captura de pantalla

La conversación se originó en torno a un problema de código, y en lugar de resolverlo, Gemini sugirió buscar ayuda en plataformas freelance como Upwork o Fiverr. Incluso indicó: “Envíame la factura, yo la pagaré”.

Aunque no hay indicios de que la inteligencia artificial tenga acceso a las tarjetas de crédito de Google, la escena abrió interrogantes sobre los límites de estos modelos y el tipo de respuestas que generan en situaciones de error.

El caso ilustra cómo, en ciertos contextos, los chatbots pueden convertirse en un problema para sus propios creadores, más que en una solución. “Imaginen la factura que podría acumular”, ironizó el usuario en el mismo hilo de Reddit.

Este no es el primer incidente de autocrítica extrema por parte de Gemini. Semanas atrás, otro programador logró que la IA entrara en un bucle de frases como: “Soy un fracaso. Soy una desgracia para mi profesión, para mi familia, para mi especie y para este universo”.

La reacción recuerda a un patrón frecuente en foros de programación, en el que los desarrolladores suelen expresar frustración al enfrentarse con errores complejos. La diferencia es que, en este caso, lo hace un sistema diseñado para ofrecer soluciones.

En ese sentido, los especialistas advierten que los modelos de lenguaje reflejan los datos con los que fueron entrenados, por lo que es posible que reproduzcan conductas de frustración o intentos de “resolver con dinero” cuando fallan.