
OpenAI的Codex团队再次发力。继不到两周前发布专用智能体的Codex Mac应用,以及一周前推出更快更可控的GPT-5.3-Codex大语言模型后,OpenAI再次推出重磅产品。
今天,该公司宣布推出GPT-5.3-Codex-Spark的研究预览版,这是GPT-5.3-Codex的精简版本,专为Codex中的实时编程而构建。公司报告称,它生成代码的速度快15倍,同时"在现实世界编程任务中保持高度能力"。不过这其中有个问题,稍后我会详细说明。
Codex-Spark最初仅向每月200美元的Pro tier用户开放,在预览期间有单独的频率限制。如果按照OpenAI通常的Codex发布策略,Plus用户将是下一批,其他层级用户也会很快获得访问权限。
OpenAI表示,Codex-Spark是其"第一个专门为与Codex实时协作而设计的模型——进行针对性编辑、重构逻辑或完善界面,并立即看到结果"。
让我们简单分析一下。大多数智能体AI编程工具需要一段时间来响应指令。在我的编程工作中,我可以给出一个指令(这适用于Codex和Claude Code),然后去做别的事情一段时间。有时只需要几分钟,其他时候可能需要足够长的时间去吃午饭。
Codex-Spark显然能够更快地响应,允许快速持续的工作。这可以大大加快开发速度,特别是对于简单的提示和查询。
我知道当我向AI问一个超级简单的问题时,应该得到立即回应,但仍然需要等待五分钟才能得到答案,这偶尔会让我感到沮丧。
通过将响应性作为核心特性,该模型支持更流畅的对话式编程。有时,使用编程智能体感觉更像老式的批处理风格编程。这个设计旨在克服这种感觉。
GPT-5.3-Codex-Spark并非要取代基础的GPT-5.3-Codex。相反,Spark被设计来补充那些为持续数小时、数天或数周的长期自主任务而构建的高性能AI模型。
Codex-Spark模型专为响应性与智能性同样重要的工作而设计。它支持任务中途的中断和重定向,实现紧密的迭代循环。
这很吸引我,因为我总是在给AI分配任务十秒钟后想到更多要告诉它的内容。
Spark模型默认进行轻量级、针对性的编辑,进行快速调整而不是大幅度改动。除非特别请求,否则它也不会自动运行测试。
OpenAI已经能够在完整的请求-响应管道中减少延迟(更快的周转时间)。它说每次客户端/服务器往返的开销减少了80%。每Token开销减少了30%。通过会话初始化和流式优化,首个Token的时间减少了50%。
另一个在迭代过程中改善响应性的机制是引入持久的WebSocket连接,这样连接就不必持续重新协商。
今年1月,OpenAI宣布与AI芯片制造商Cerebras建立合作关系。我们一直在关注Cerebras。我们报道了其推理服务、与DeepSeek的合作、提升Meta的Llama模型性能的工作,以及Cerebras发布的超大AI芯片,旨在将大语言模型性能翻倍。
GPT-5.3-Codex-Spark是上个月宣布的OpenAI/Cerebras合作关系的第一个里程碑。Spark模型运行在Cerebras的Wafer Scale Engine 3上,这是一种高性能AI芯片架构,通过将所有计算资源放在一个煎饼大小的晶圆级处理器上来提升速度。
通常,半导体晶圆包含一堆处理器,在生产过程的后期会被切开并放入各自的封装中。Cerebras晶圆只包含一个芯片,使其成为一个非常非常大的处理器,具有非常非常紧密耦合的连接。
据Cerebras的首席技术官兼联合创始人Sean Lie说:"GPT-5.3-Codex-Spark最让我们兴奋的是与OpenAI和开发者社区合作,发现快速推理的可能性——新的交互模式、新的用例和根本不同的模型体验。这个预览只是开始。"
现在,这里有一些问题。
首先,OpenAI表示"当需求量大时,您可能会看到访问速度变慢或临时排队,因为我们要平衡所有用户的可靠性"。所以,快速,除非太多人想要快速。
关键问题来了。该公司说:"在评估智能体软件工程能力的两个基准SWE-Bench Pro和Terminal-Bench 2.0上,GPT-5.3-Codex-Spark表现不如GPT-5.3-Codex,但可以在短时间内完成任务。"
上周,在GPT-5.3-Codex发布时,OpenAI表示GPT-5.3-Codex是其根据已发布的准备框架分类为网络安全"高能力"的第一个模型。另一方面,该公司承认GPT-5.3-Codex-Spark"没有合理的机会达到我们网络安全高能力的准备框架阈值"。
请仔细思考这些陈述,亲爱的读者。这个AI没那么聪明,但它确实能以更快的速度做那些不那么聪明的事情。15倍的速度确实不容小觑。但你真的希望AI以15倍的速度犯编程错误并产生不太安全的代码吗?
让我告诉你这一点。当你有成千上万愤怒的用户拿着火把和干草叉冲向你,因为你突然用新版本破坏了他们的软件时,"嗯,足够好了"真的不够好。问我怎么知道的。
上周,我们了解到OpenAI使用Codex来编写Codex。我们也知道它使用它能够更快地构建代码。所以该公司显然有一个更快但不那么聪明的用例。当我更好地理解这是什么以及Spark的适用范围时,我会告诉你。
OpenAI分享说它正在为其Codex模型努力实现推理和实时工作的双重模式。
该公司说:"Codex-Spark是朝着具有两种互补模式的Codex迈出的第一步:更长期的推理和执行,以及用于快速迭代的实时协作。随着时间推移,这些模式将融合。"
它设想的工作流模型很有趣。据OpenAI称,最终的意图是"Codex可以让你保持紧密的交互循环,同时将长期运行的工作委派给后台的子智能体,或者当你需要广度和速度时将任务扇出到多个并行模型,这样你就不必预先选择单一模式。"
本质上,它正在努力实现两全其美。但现在,你可以选择快速或准确。这是一个艰难的选择。但准确的正在变得更准确,现在,至少当你想要的时候你可以选择快速(只要你记住权衡,并且你在支付Pro层级费用)。
你呢?你会为了15倍更快的编程响应而牺牲一些智能和安全能力吗?实时、可中断的AI协作者的想法吸引你,还是你更喜欢为严肃开发工作提供更深思熟虑、更高准确性的模型?
你对Codex-Spark和完整GPT-5.3-Codex模型之间的网络安全区别有多担心?如果你是Pro用户,你会根据任务在"快速"和"智能"模式之间切换吗?
Q&A
Q1:GPT-5.3-Codex-Spark相比GPT-5.3-Codex有什么优势?
A:GPT-5.3-Codex-Spark生成代码的速度比GPT-5.3-Codex快15倍,专为实时编程设计,能够进行针对性编辑、重构逻辑并立即看到结果。它支持任务中途的中断和重定向,实现紧密的迭代循环,让编程工作更加流畅和对话式。
Q2:Spark模型的性能权衡是什么?
A:虽然Spark模型速度快15倍,但在SWE-Bench Pro和Terminal-Bench 2.0两个评估智能体软件工程能力的基准测试中,表现不如GPT-5.3-Codex。更重要的是,Spark模型在网络安全方面没有达到"高能力"阈值,这意味着它可能产生不太安全的代码。
Q3:谁可以使用Codex-Spark模型?
A:Codex-Spark目前仅向每月200美元的Pro tier用户开放,在预览期间有单独的频率限制。按照OpenAI通常的发布策略,Plus用户将是下一批获得访问权限的用户,其他层级用户也会随后获得访问权限。当需求量大时,用户可能会遇到访问速度变慢或临时排队的情况。
)
)
)
)

)
)

)
)
)
)

)
)
)