钛媒体 02-13
每秒千词实时编程!OpenAI与Cerebras推出GPT-5.3-Codex-Spark模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

AI 编程工具已成为开发者日常工作里的重要助手,但生成代码时的等待延迟始终是影响效率的一大痛点——传统模型每秒仅能生成几十 tokens,开发者输入需求后往往要等数秒甚至数十秒才能收到反馈,这不仅拖慢开发节奏,更可能打断连贯的编程思路。

近日,OpenAI 与 AI 芯片巨头 Cerebras 联手推出 GPT-5.3-Codex-Spark 模型,专为实时编程场景做了深度优化,最大亮点是突破了推理速度的瓶颈,实现每秒 1000tokens 的生成能力,让 AI 编程反馈和开发者思路同步成为可能。

该模型的发布正是为了解决AI 编程中的 " 等待焦虑 ",回应开发者对实时交互的迫切需求。

GPT-5.3-Codex-Spark 的超高速性能背后离不开 Cerebras 晶圆级引擎(WSE)技术的支撑——这款全球最大的 AI 芯片集成了数万亿晶体管,采用单晶圆设计,彻底消除了多芯片集群间的通信延迟,能以极高的并行计算能力处理大规模模型的推理任务。

同时,OpenAI 针对编程场景对模型做了专项优化:一方面调整了 tokenization 策略,优先高效处理代码相关的语法结构和关键词;另一方面简化了部分非必要的推理步骤,在保证代码准确性的前提下进一步压缩响应时间。

对开发者来说,这种实时反馈能力将彻底重塑编程体验。比如编写复杂算法时,输入问题描述后模型能在 1 秒内生成完整的代码片段和注释;调试代码时,输入错误信息就能立刻得到修复建议。

这种即时性不仅能大幅提升开发效率,还能帮助开发者维持连贯的思维状态,减轻认知负担。目前该模型已向部分企业客户开放测试,预计 2026 年第二季度全面上线,届时会整合到主流 IDE 插件和在线编程平台中。

行业内其他玩家也在加速布局。

据报道,全球代码托管平台GitLab 计划 2026 年第三季度推出基于自有模型的实时编程助手,目标速度达 800tokens/s,重点优化分布式系统代码的生成能力;Google DeepMind 旗下 AlphaCode 2.5 已于 2026 年 1 月更新,通过优化 TPU 集群架构将推理速度提升至 750tokens/s,还新增了 Python 和 Java 的实时调试功能。

此外,Anthropic 的 Claude 3.1-Code 模型则聚焦代码安全性检测,虽然速度只有 600tokens/s,但在代码漏洞识别准确率上比行业平均水平高出 15%,能为开发者提供更可靠的代码质量保障。(本文首发钛媒体 App , 作者|AGI-Signal,编辑|秦聪慧) 

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai芯片 python java 编程 晶圆
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论