IT之家 02-13
OpenAI发布GPT-5.3-Codex-Spark模型,一秒回应超1000 Tokens
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

IT 之家 2 月 13 日消息,Cerebras 与 OpenAI 宣布推出最新的 GPT-5.3-Codex-Spark 模型,主打实时编程。这也是 OpenAI 与 Cerebras 合作的首个公开发布成果。

IT 之家注:该模型由 Cerebras 提供算力支持,已于当地时间 2 月 12 日以 " 研究预览 "(research preview)形式开放。

据介绍,Codex-Spark 主要面向对交互速度要求极高的实时软件开发场景,可实现超 1000 tokens/s 的推理速度,从而实现近乎即时响应的编码反馈。

OpenAI 在公告中指出,近年来 "agentic coding" 正逐渐改变软件开发方式,机器能够在较少人工监督下持续工作数小时甚至数天。但这种模式也可能带来新的问题,包括开发者等待时间变长、对过程的掌控感降低。

OpenAI 表示,软件开发本质上是迭代过程,需要开发者在过程中不断掌控方向、决定审美与决策,因此 Codex-Spark 被设计为与 Codex 进行实时协作的模型,强调 " 快速、响应及时、可引导 ",让开发者保持在工作中的主导位置。

从定位上看,Codex-Spark 被描述为 " 具备高度能力的小模型 ",主要针对快速推理场景进行了优化。OpenAI 称,在 SWE-Bench Pro、Terminal-Bench 2.0 等软件工程基准测试上,Codex-Spark 在完成任务耗时显著缩短的同时,能够给出比 GPT-5.1-Codex-mini 更好的回答。

在具体能力方面,OpenAI 强调 Codex-Spark 擅长进行精确代码修改、计划调整,并能围绕代码库进行上下文问答。官方还提到,该模型适用于快速可视化新布局、优化样式,以及测试新的界面变更等工作。

OpenAI 同时也对 Cerebras 硬件能力进行了介绍。据称,Wafer-Scale Engine 具备业内最大的 SoC 片上内存,可支撑用户实现每秒数千 token 级别的高速推理,并可扩展到数千套系统,将高速内存容量扩展到多 TB 级别,以支持万亿参数模型的训练与推理。OpenAI 表示,预计在 2026 年把这种 " 超高速推理 " 能力带到更大规模的前沿模型上。

在上线范围方面,OpenAI 称 Codex-Spark 将以研究预览形式向 ChatGPT Pro 用户推送,覆盖 Codex 应用、CLI 以及 VS Code 扩展,同时 API 访问将向部分设计合作伙伴逐步开放。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

it之家 软件开发 界面 编程
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论