OpenAI ha lanzado una versión más pequeña de su modelo enfocado al desarrollo de software. Conocido como GPT-5.3 Codex Spark, esta IA se posiciona como el primer modelo de lenguaje diseñado para programación en tiempo real. La compañía señala que se siente «casi instantáneo» y puede generar código hasta 15 veces más rápido.
De acuerdo con una publicación en su web, GPT-5.3 Codex Spark está pensado para trabajar con Codex en tiempo real. El modelo tiene una ventana de contexto de 128k y está optimizado para una inferencia rápida. En comparación con GPT-5.3 Codex, Spark realiza las tareas en una fracción de segundo.
Según OpenAI, su IA puede remodelar lógica, refinar interfaces o editar una parte específica del código. Los usuarios pueden obtener resultados en tiempo real y tendrán la opción de interrumpirlo o redirigirlo mientras trabaja. El modelo está pensado para un flujo de trabajo rápido, por lo que las ediciones serán mínimas y no llevará a cabo pruebas de forma automática, a menos que así lo indiques.
En términos prácticos, GPT-5.3 Codex Spark reduce la espera al momento de programar. Si has usado Codex o cualquier otra herramienta de programación basada en IA, sabrás que hay tareas que pueden tomar más tiempo de lo normal. Esto se debe a que el modelo razona y lleva a cabo las pruebas para validar el resultado final.
Con Spark las cosas cambian, puesto que los tiempos de respuesta se reducen, permitiendo agilizar el trabajo de los desarrolladores. En las pruebas de SWE-Bench Pro y Terminal-Bench 2.0, el nuevo modelo de OpenAI consigue un nivel alto de precisión en una fracción del tiempo que tardan GPT-5.3-Codex o GPT-5.1-Codex mini.
La rapidez de GPT-5.3 Codex Spark tiene un punto débil
OpenAI menciona que Codex-Spark está optimizado para trabajos interactivos donde la latencia importa tanto como la inteligencia. Para conseguirlo, la compañía simplificó la forma como fluyen las respuestas del cliente al servidor y viceversa. OpenAI reescribió componentes de la pila de inferencias y ajustó la inicialización de sesiones. Al llevar a cabo estos y otros cambios en el servidor, los tiempos de respuesta se redujeron de forma notable.

La baja latencia es un arma de doble filo. El tiempo que ahorras en recibir las respuestas podrías gastarlo en corregir los errores de la IA. Más rápido no significa que siempre estará en lo correcto, sobre todo cuando no lleva a cabo pruebas de validación por defecto.
Otro detalle que llama la atención es que Codex Spark funciona con el Wafer Scale Engine 3 de Cerebras, un chip a escala del tamaño de una oblea. El WSE-3 promete hasta 127 petaFLOPS de rendimiento gracias a sus más de 4 billones de transistores, 44 GB de memoria integrada y un ancho de banda de 21 petabytes por segundo. Codex-Spark es el primer modelo de la colaboración con Cerebras.
Spark no reemplazará a GPT-5.3 Codex
Es importante mencionar que GPT-5.3-Codex-Spark no está pensado para reemplazar a GPT-5.3-Codex. El nuevo modelo funciona como un complemento que permite llevar a cabo tareas de larga duración. En los benchmarks, Spark supera a su hermano mayor en rapidez, aunque en porcentaje de precisión Codex sigue siendo el rey.
GPT-5.3 Codex Spark es el primero de una familia de modelos ultrarrápidos. OpenAI reveló que tiene intenciones de crear una versión de Codex con dos modos: uno para programación rápida y otro para razonamiento y ejecución a largo plazo.
«Codex puede mantenerte en un bucle interactivo cerrado mientras delega trabajos de mayor duración a subagentes en segundo plano, o distribuye tareas en paralelo a muchos modelos cuando quieres amplitud y velocidad», añadió.
Codex-Spark estará disponible a partir de hoy para los usuarios de ChatGPT Pro a través de la app, CLI y la extensión para Visual Studio Code.