En su evento anual para desarrolladores, Google anunció importantes avances en inteligencia artificial, con mejoras sustanciales en su modelo más avanzado hasta la fecha, Gemini 2.5, y progresos significativos en los proyectos Astra, Starline y Mariner, que marcan el camino hacia un asistente universal de nueva generación.

Gemini 2.5: pensamiento profundo y control total

Gemini 2.5 es el modelo más potente de la compañía, líder en todas las categorías de LMArena y en el primer puesto de WebDevArena. Según detalló el CEO de Google, Sundar Pichai, el modelo se ha actualizado con dos versiones: Gemini 2.5 Pro, diseñado para tareas complejas y con un nuevo modo de pensamiento profundo que considera múltiples hipótesis antes de responder; y Gemini 2.5 Flash, una versión más rápida y eficiente, con mejoras en programación, razonamiento y mayor longitud de contexto.

Ambos modelos incorporan funciones experimentales como "Thoughts", que permite desglosar el proceso de razonamiento de la IA, y "Thinking Budgets", para que los desarrolladores tengan más control sobre el uso de tokens. Gemini 2.5 Flash estará disponible en versión preliminar en julio en AI Studio, Vertex y Gemini API.

Más capacidades y personalización

Google también mejoró Gemini con "Native audio output", que permite elegir entre dos voces con distintos tonos e idiomas, y anunció Gemini Diffusion, un nuevo enfoque de generación de texto basado en técnicas de difusión para aumentar la creatividad y el control de los usuarios. Por otro lado, los World Models, simuladores basados en principios físicos del mundo real, apuntan a fortalecer el desarrollo de la robótica.

La personalización es otro eje clave: Gemini podrá adaptar las respuestas al estilo del usuario mediante la función de "Respuestas inteligentes personalizadas" en Gmail, y utilizará el "contexto personal" extraído de las aplicaciones de Google para mejorar su precisión.

Astra: la IA que ve y actúa en el mundo físico

Uno de los avances más destacados es en Proyecto Astra, con la introducción de Gemini Live, una función que permite a la inteligencia artificial usar la cámara del teléfono para “ver” lo que el usuario ve y ofrecer información contextual en tiempo real. Esta función ya está disponible en Android e iOS.

Además, el modo agente en la app de Gemini permitirá que el asistente realice tareas por el usuario, como buscar un apartamento o navegar por sitios web. Esta capacidad se amplía con Proyecto Mariner, que presenta un agente con navegación autónoma y soporte de multitarea para ejecutar hasta diez acciones simultáneamente.

Starline y la revolución en la videocomunicación

Google también mostró los avances de Proyecto Starline, una plataforma de videollamadas que simula la presencia física mediante transmisión en 3D. Su nueva solución, Google Beam, usa seis cámaras para convertir una transmisión 2D en una experiencia tridimensional más realista.

Como parte de esta evolución, Starline incorporará traducción en tiempo real en Google Meet, inicialmente en inglés y español, con planes de extenderlo a más idiomas.

Imágenes más ricas y videos con sonido generado por IA

Finalmente, Google presentó mejoras en sus modelos generativos: Imagen 4, que produce imágenes con colores más vivos y detalles más realistas, y Veo 3, su herramienta de generación de video que ahora incluye generación de audio con efectos de fondo y diálogos.

Con estos avances, Google refuerza su liderazgo en inteligencia artificial, combinando potencia de procesamiento, capacidad de razonamiento, personalización y nuevas formas de interacción humano-máquina. La carrera hacia el asistente universal no solo está en marcha, sino que está cada vez más cerca.

En base a Europa Press