GPT-5.3-Codex-Spark - сверхбыстрая модель от OpenAI и Cerebras
16:44, 13.02.2026
OpenAI выпустила специализированную версию для очень быстрой генерации кода — GPT-5.3-Codex-Spark. Эта новинка отличается невероятной скоростью: модель может выдавать более 1000 токенов в секунду.
Производительность Spark
Производительность Spark стала возможной благодаря отказу от традиционных GPU в пользу специализированных чипов Cerebras Wafer Scale Engine 3. Благодаря новой архитектуре и постоянному WebSocket-соединению, задержку выдачи токенов удалось сократить на 80%.
Этот релиз — первый результат коллаборации OpenAI и Cerebras, тем не менее это лишь версия GPT-5.3-Codex, а не полноценная новая модель. Spark создана с упором на кодинг в реальном времени, и поэтому предлагает точечные правки и адаптацию кода в 15 раз быстрее обычных моделей.
Бенчмарки
Феноменальную скорость балансирует меньшая точность ответов.
SWE-Bench Pro показывает, что Spark справляется с запросом за 2–3 минуты с результатом 52%, в то время как старшая модель достигает 57%, но тратит на это 16 минут.
Terminal-Bench 2.0 показывает, что точность ответов у Spark — 58,4% против 77,3% у флагмана.
Тем не менее Spark значительно обгоняет мини-модель GPT-5.1-Codex-mini. В Cerebras предполагают, что новая модель может сделать мгновенный отклик новым стандартом в индустрии.
Как можно протестировать Spark?
Сейчас, модель находится на стадии research preview и доступна подписчикам ChatGPT Pro через CLI, расширение для VS Code и приложение Codex.Модель не поддерживает изображения, а API открыты только для узкого круга партнеров.