OpenAI heeft een onderzoekspreview uitgebracht van GPT-5.3-Codex-Spark, een nieuw AI-model dat speciaal is ontworpen voor realtime programmeerwerk.
GPT-5.3-Codex-Spark is het nieuwste codeermodel van OpenAI en voorlopig in preview beschikbaar. Het gaat om een lichtgewicht variant van GPT-5.3-Codex en is het eerste resultaat tussen OpenAI en Cerebras. Het is geoptimaliseerd voor extreem lage latency en kan meer dan 1.000 tokens per seconde genereren, waardoor aanpassingen in code vrijwel onmiddellijk zichtbaar zijn.
Gericht op snelheid en interactie
Waar eerdere Codex-modellen vooral uitblinken in langdurige, autonome taken, focust Codex-Spark expliciet op directe samenwerking met ontwikkelaars. Het model is bedoeld voor snelle taken: kleine code-aanpassingen, het herschikken van logica of het verfijnen van interfaces, zonder wachttijd. Standaard voert het geen tests uit, tenzij de gebruiker dat zelf vraagt.
Draait op Cerebras-hardware
Codex-Spark wordt gehost op de Wafer Scale Engine 3 van Cerebras, een accelerator die is gebouwd voor hoge inference-snelheid. Volgens OpenAI is niet alleen het model versneld, maar ook de volledige request-responseketen. Door onder meer een persistente WebSocket-verbinding is de tijd tot het eerste token met 50 procent verminderd.
De preview is vanaf vandaag beschikbaar voor ChatGPT Pro-gebruikers via de Codex-app, CLI en VS Code-extensie. Het model heeft een contextvenster van 128.000 tokens en kan voorlopig enkel tekst verwerken. Het ebruik valt buiten de standaardlimieten, maar kan tijdelijk worden beperkt bij hoge vraag.
