Las acciones de Nvidia y otros fabricantes de chips cayeron el mes pasado tras un informe que señalaba que Meta, uno de los mayores clientes de Nvidia, estaba explorando un acuerdo para usar los chips de IA de Google, conocidos como Tensor Processing Units, o TPU.
Google ha utilizado principalmente sus TPU para uso interno, pero también los alquila a clientes externos a través de la nube. Mientras tanto, Nvidia se ha convertido en el proveedor dominante de chips de IA con sus unidades de procesamiento gráfico, o GPU.
Google tiene un negocio potencialmente revolucionario por desbloquear. En una nota de investigación enviada el 2 de diciembre, Morgan Stanley proyectó que se comprarán 5 millones de TPU de Google en 2027 y alrededor de 7 millones en 2028, aumentando significativamente sus proyecciones anteriores.
¿Qué son los TPU?
Hace más de una década, Google necesitaba una potencia de cálculo más potente y especializada para el tipo de trabajo de IA que quería realizar. Un equipo liderado por el actual CEO de Groq, Jonathan Ross, diseñó un nuevo chip basado en un tipo específico de circuito integrado para aprendizaje automático. Así nació el TPU.
Google ha continuado mejorando y perfeccionando sus TPU a lo largo de los años, haciéndolos más efectivos tanto en el entrenamiento de modelos como en la inferencia, el proceso mediante el cual un modelo entrenado responde a una pregunta o realiza una tarea. A medida que los modelos de lenguaje grandes han crecido en tamaño, Google también ha incrementado el ancho de banda de la memoria de las TPU posteriores para manejar estas cargas de trabajo más grandes.
Google afirma que su última TPU Ironwood, que la compañía está poniendo a disposición de forma general, es más de cuatro veces mejor que su predecesora tanto para entrenamiento como para inferencia.
¿Cómo se diferencian los TPUs de las GPUs de Nvidia?
Las tarjetas de GPU de Nvidia, lanzadas en 1999, fueron diseñadas originalmente para videojuegos, no para IA. Más tarde, cuando los investigadores descubrieron que los chips eran útiles para tareas como el entrenamiento de redes neuronales, Nvidia apostó con fuerza por el mercado de IA.
Por otro lado, los TPU de Google fueron diseñados para IA desde el principio. Al ser más especializados, son más eficientes que los chips de Nvidia en algunas tareas y más rápidos para ejecutar ciertos modelos de IA. Cuentan con algo llamado matriz sistólica, que permite que un flujo más constante de datos pase por el chip, en lugar de tener que estar recuperando información de la memoria constantemente.
Donde los TPU de Google tienen una gran ventaja es en costo a gran escala. Es posible tener miles de TPU trabajando en conjunto En un solo “pod”. Debido a que son más rápidos en ciertos cálculos que las GPU, ejecutar muchos TPU a la vez pueden ser, en ocasiones, más rentable.
Eso podría volverse más importante a medida que las empresas aumenten sus inversiones en la etapa de inferencia, en la que Google afirma que su última TPU es especialmente eficaz. Esto podría significar un ahorro de dinero para las compañías.
¿Qué impide que los clientes cambien las GPU por TPU?
Una ventaja que tiene Nvidia sobre Google es su software CUDA, que permite que las aplicaciones normales utilicen las GPU para tareas de computación general, no solo para gráficos. Además, CUDA solo funciona con chips Nvidia, uno de los principales obstáculos que impide a las empresas cambiar a los chips de Google.
Google está intentando cambiar eso. Por ejemplo, existe una gran demanda en la industria para que los TPU tengan un mejor soporte para Pytorch, una herramienta popular para crear aplicaciones de IA que fue desarrollada dentro de Meta. Google está destinando más recursos y atención para mejorar el soporte de Pytorch, ya que los datos sugieren que esta herramienta está experimentando mucha más demanda que el propio software TensorFlow de Google, según empleados de la compañía y expertos de la industria.
¿Quiénes usan TPUs?
En cuanto a las TPU, Google sigue siendo su propio mayor cliente. Utiliza los chips en toda la compañía para impulsar productos como Search y Maps. Su último modelo, Gemini 3, fue entrenado usando TPU.
Aunque Google ha priorizado sus propias necesidades, ha alquilado sus TPU a otros clientes. Apple utilizó TPU para entrenar su modelo de IA interno, informó previamente Business Insider. En octubre, Anthropic anunció un acuerdo millonario con Google que, según indica, le permitirá usar hasta 1 millón de TPU. Broadcom, que ayuda a fabricar los chips TPU para Google, reveló en su llamada de resultados del cuarto trimestre esta semana que ha recibido un total de US$21.000 millones en pedidos de Anthropic para los TPU Ironwood de Google.
Meta también está realizando pruebas iniciales de los TPU de Google, según una persona familiarizada con el tema, aunque no está claro si esto derivará en un acuerdo a largo plazo.
¿Qué podría significar esto para Google... y para Nvidia?
El negocio de TPU de Google podría estar a punto de explotar en los próximos años. En una nota de investigación de este mes, Morgan Stanley indicó que cada 500 mil chips TPU vendidos podrían agregar potencialmente alrededor de US$13.000 en ingresos al balance de Google en 2027.
Tener TPU no solo representa un posible aumento de ingresos para Google. También genera un ciclo de retroalimentación, ya que la compañía puede usar los TPU para ejecutar y entrenar sus modelos de IA, aprender de ellos y ajustar el desarrollo de sus próximos chips para que sean más eficientes en las necesidades específicas de Google.
La GPU de Nvidia sigue siendo el chip del momento, pero otros gigantes tecnológicos están invirtiendo cada vez más en sus propios chips personalizados. Amazon anunció recientemente su nuevo chip de IA personalizado Trainium3 que, según la compañía, puede reducir a la mitad el costo de entrenar y operar modelos de IA en comparación con una GPU.
Eso podría afectar a Nvidia, que podría perder poder de fijación de precios debido a un mercado más diverso.
Eso podría afectar a Nvidia, que podría perder poder de fijación de precios debido a un mercado más diverso.
Sin embargo, incluso si el negocio de TPU de Google gana más impulso, no significa que Nvidia vaya a derrumbarse de la noche a la mañana. Jordan Nanos, miembro del personal técnico de la firma de investigación SemiAnalysis, señaló que su empresa cree que compañías como Nvidia, Google y Amazon venderán muchos chips en el futuro.
“No vemos a los TPU como una amenaza significativa para el negocio de Nvidia, pero han sido un actor real en el mercado durante muchos años", dijo Nanos. “Es posible que Google venda servidores TPU externamente en el futuro, a muchos más clientes. Por ahora, son muy selectivos“.