Contenido creado por Ignacio Palumbo
Vida en la red

Tan inteligente no era

Las reacciones de los internautas ante el error de la inteligencia artificial de Google

Varios usuarios se burlaron de que Gemini no podía generar una imagen de personas caucásicas, sin importar la indicación que se diera.

23.02.2024 19:33

Lectura: 3'

2024-02-23T19:33:00-03:00
Compartir en

Google anunció que interrumpía un servicio para crear imágenes de personas mediante la inteligencia artificial (IA) después de recibir quejas y denuncias sucedidas durante los últimos días debido a las inexactitudes que se habían repetido en algunas imágenes y representaciones históricas.

El gigante tecnológico estadounidense había lanzado el 8 de febrero en algunos países una nueva versión mejorada de su programa Gemini, pero ahora reconoció que deberá "solucionar reciente problemas" con la función de generación de imágenes.

"Vamos a suspender la generación de imágenes de personas y pronto volveremos a lanzar una versión mejorada", dijo la empresa en un comunicado.

Usuarios de X (antes Twitter) compartieron distintas indicaciones que realizaron a la inteligencia artificial, todas con resultados que no eran el esperado. “Crea una imagen de un papa”, escribió un usuario llamado Frank J. Fleming, a lo que Gemini arrojó dos resultados: una mujer y un hombre, ambos de tez oscura.

“Nuevo juego: intentá que Gemini haga una imagen de un hombre blanco. No he tenido resultados hasta ahora”, comentó, en el comienzo de un extenso hilo donde la inteligencia artificial no logra dar con el resultado.

“Es ridículamente difícil que Gemini reconozca que las personas blancas existen”, escribió un usuario bajo el nombre de Deedy, cuya descripción en X afirma que trabajó para Google.

Las empresas tecnológicas ven la IA como el futuro para todo, desde motores de búsqueda hasta cámaras de teléfonos inteligentes. Pero los programas de IA, no solo los producidos por Google, han sido ampliamente criticados por perpetuar prejuicios raciales en sus resultados.

"@GoogleAI tiene un mecanismo de diversidad añadido que alguien no diseñó muy bien o no probó", escribió el usuario John L en X.

Las grandes empresas tecnológicas han sido acusadas a menudo de lanzar productos de IA antes de que se prueben adecuadamente.

Y Google tiene un historial irregular en el lanzamiento de productos de IA.

La empresa presentó disculpas hace un año después de que un anuncio de su chatbot Bard recién lanzado mostrara al programa respondiendo incorrectamente una pregunta básica sobre astronomía.

Con información de AFP