OpenAI anunció el lanzamiento de una versión ligera de su herramienta de codificación agenética Codex, cuyo último modelo lanzó a principios de este mes.
La compañía describe GPT-5.3-Codex-Spark como una versión reducida de dicho modelo, diseñada para una inferencia más rápida. Para impulsar dicha inferencia, OpenAI ha incorporado un chip dedicado de su socio de hardware Cerebras, lo que marca un nuevo nivel de integración en la infraestructura física de la compañía, según consignó el portal especializado en tecnología TechCrunch el pasado jueves 12.
La alianza entre Cerebras y OpenAI se anunció el mes pasado, cuando OpenAI comunicó un acuerdo plurianual con la firma por un valor superior a los US$ 10.000 millones de dólares. “Integrar Cerebras en nuestra gama de soluciones informáticas tiene como objetivo que nuestra IA [inteligencia artificial] responda con mayor rapidez”, declaró la compañía en aquel momento. Ahora, OpenAI considera Spark el “primer hito” de esa relación.
Spark, que según OpenAI está diseñado para una colaboración ágil en tiempo real y una iteración rápida, estará impulsado por el Wafer Scale Engine 3 de Cerebras. El WSE-3 es el megachip a escala de oblea de tercera generación de Cerebras, equipado con cuatro billones de transistores.
OpenAI describe esta nueva herramienta ligera como un “impulsor de productividad diaria, que ayuda a los usuarios con la creación rápida de prototipos”, en lugar de las tareas más largas y complejas para las que está diseñada la versión 5.3 original.
Spark está actualmente en fase de investigación para los usuarios de ChatGPT Pro en la aplicación Codex.
En un tuit previo al anuncio, el director ejecutivo Sam Altman pareció insinuar el nuevo modelo. “Lanzaremos algo especial para los usuarios del plan Pro de Codex más tarde hoy”, tuiteó Altman. “Me llena de alegría”, añadió, según el citado medio.
En su declaración oficial, OpenAI destacó que Spark está diseñado para la menor latencia posible en Codex. “Codex-Spark es el primer paso hacia un Codex que funciona en dos modos complementarios: colaboración en tiempo real para iteraciones rápidas y tareas de larga duración para razonamiento y ejecución más profundos”, afirmó la empresa.
La compañía añadió que los chips Cerebras son excelentes para facilitar flujos de trabajo que exigen una latencia extremadamente baja.
Cerebras lleva más de una década en el mercado, pero en la era de la IA, ha adquirido un papel cada vez más destacado en la industria tecnológica. La semana pasada, la compañía anunció la captación de 1000 millones de dólares en capital nuevo, con una valoración de US$ 23.000 millones de dólares. Anteriormente, la compañía había anunciado su intención de salir a bolsa.
“Lo que más nos entusiasma de GPT-5.3-Codex-Spark es la colaboración con OpenAI y la comunidad de desarrolladores para descubrir lo que la inferencia rápida posibilita: nuevos patrones de interacción, nuevos casos de uso y una experiencia de modelo fundamentalmente diferente”, declaró Sean Lie, director de tecnología y cofundador de Cerebras. “Esta vista previa es solo el principio”, concluyó.