找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
热搜: 活动 交友 discuz
查看: 3|回复: 0

OpenAI史上最快模型降临,每秒1000Token!代码从此「炸出来」

[复制链接]

2

主题

0

回帖

6

积分

新手上路

积分
6
发表于 昨天 17:50 | 显示全部楼层 |阅读模式
OpenAI又深夜炸场了。
GPT-5.3-Codex-Spark正式发布!
这次不讲大道理,只讲一个字:快。
到底有多快,看一下官方的演示:
它是GPT-5.3家族里的「闪电侠」。
也是OpenAI首个专为实时编程设计的模型,OpenAI称之为「超高速模型」。
大家写代码最烦什么?肯定是等待。
Spark的出现就是为了干掉等待。
它的生成速度超过每秒1000个token!
这是什么概念?
你刚敲完回车,代码已经写完了。
体感接近「瞬时响应」。
这次OpenAI找了个强力外援。
芯片巨头Cerebras。
Spark跑在Cerebras的Wafer Scale Engine 3上。
这不是普通的GPU堆叠。
这是专为低延迟设计的顶级硬件。
为了配合这股怪力,OpenAI还重写了底座。
他们引入了持久的WebSocket连接。
往返开销降低了80%。
首个字符出现的速度提升了50%。
模型虽然变「小」了,但脑子并没缩水。
在衡量程序员能力的各种榜单上。
Spark的表现依然强悍。
最关键的是,它完成任务的时间缩短了一大截。
在评估智能体软件工程能力的SWE-Bench Pro和Terminal-Bench 2.0两项基准测试中,GPT‑5.3‑Codex‑Spark展现出强劲性能,同时完成任务所需时间仅为GPT‑5.3‑Codex的一小部分。
以前模型写代码像在慢跑。
现在Spark是在跑百米冲刺。
它的应用场景很明确:实时协作。
你想改个逻辑,它立刻跟上。
你想重塑接口,它秒速完成。
你甚至可以一边看它写,一边随时打断它。
这种感觉不像是在用工具。
更像是在和一个手速极快的顶级极客结对编程。
配置方面也很有诚意。
128k的上下文窗口,目前仅支持文本。
安全标准也没落下,防御力依然在线。
现在ChatGPT Pro用户已经可以去尝鲜了。
无论是Codex App、CLI还是VS Code插件。
都能看到这个「火花」在跳动。
OpenAI的野心很明显。
未来的编程将分为两种模式。
一种是深度思考,模型自己干几天几夜。
一种是实时互动,模型和你火花四溅。
Spark就是开启第二种模式的钥匙。
人类敲代码的速度。
终于快要赶不上AI生成的进度了。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|一起港湾 ( 青ICP备2025004122号-1 )

GMT+8, 2026-2-15 09:58 , Processed in 0.110522 second(s), 20 queries .

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表