Google anunció una nueva generación de sus chips de inteligencia artificial, pero con un cambio clave en el enfoque, ya que, en lugar de un único modelo, la empresa presentó dos procesadores distintos, diseñados para etapas diferentes del ciclo de vida de la IA.
La octava generación de sus unidades de procesamiento tensorial (TPU) se divide en el TPU 8t, orientado al entrenamiento de modelos, y el TPU 8i, enfocado en la inferencia, es decir, la ejecución de esos modelos una vez entrenados.
Desde la compañía argumentan que la llamada “era de los agentes” —con sistemas que operan de forma continua y autónoma— requiere infraestructura específica para cada tarea, en lugar de hardware generalista.
El TPU 8t apunta a acelerar el entrenamiento de modelos avanzados, reduciendo procesos que antes podían tomar meses a solo semanas. Funciona en clústeres llamados “pods”, que ahora integran hasta 9.600 chips con dos petabytes de memoria compartida.
Según Google, estos sistemas pueden escalar hasta un millón de chips en un mismo clúster lógico, con una capacidad de cómputo que triplica a la generación anterior. Además, la empresa destaca mejoras en eficiencia operativa, con una tasa de uso efectivo del hardware cercana al 97%.
Una vez entrenados, los modelos pasan a la fase de inferencia, donde entra en juego el TPU 8i. Este chip está optimizado para ejecutar múltiples agentes en paralelo con menor consumo energético y menor latencia.
En este caso, los pods crecen hasta 1.152 chips por clúster, y se incorporan mejoras como mayor memoria interna —hasta 384 MB por chip— para manejar contextos más largos y complejos en aplicaciones de IA.
Otro cambio relevante es el uso exclusivo de procesadores ARM propios, bajo la arquitectura Axion, lo que permite —según la empresa— mejorar la eficiencia del sistema completo frente a configuraciones anteriores basadas en CPU x86.
El anuncio también refuerza una tendencia en la industria: el paso de modelos de IA puntuales a sistemas persistentes, con múltiples agentes ejecutándose de forma continua. Ese cambio dispara el consumo de recursos computacionales y obliga a rediseñar tanto hardware como centros de datos.
En ese sentido, Google asegura que sus nuevos chips ofrecen el doble de rendimiento por watt frente a la generación previa, además de mejoras en la infraestructura, como integración de red y cómputo en un mismo chip y sistemas avanzados de refrigeración líquida.
Aun así, el desafío de fondo se mantiene: entrenar y operar modelos de IA de gran escala sigue siendo costoso, tanto en términos económicos como energéticos.
Los nuevos TPU estarán disponibles tanto para productos propios —incluidos los sistemas basados en Gemini— como para desarrolladores externos, con soporte para frameworks como JAX, PyTorch y vLLM.
El movimiento se da en un contexto de alta competencia con Nvidia, líder en aceleradores de IA, cuya cotización llegó a caer tras el anuncio antes de recuperarse. La carrera por sostener el crecimiento de la inteligencia artificial ahora también se juega en el diseño de chips.