OpenAI Developers
@OpenAIDevs · 6天前隆重推出 GPT-5.2-Codex,迄今为止用于复杂真实世界软件工程的最佳智能体编码模型。
凭借原生压缩、更好的长上下文理解和改进的工具调用,它将是您完成最艰巨任务的更可靠伙伴。
今天起在 Codex 中可用。
openai.com/index/introduc…
65
218
1,957
278
327
隆重推出 GPT-5.2-Codex,迄今为止用于复杂真实世界软件工程的最佳智能体编码模型。
凭借原生压缩、更好的长上下文理解和改进的工具调用,它将是您完成最艰巨任务的更可靠伙伴。
今天起在 Codex 中可用。
openai.com/index/introduc…
我从 @ElenaVerna (@Lovable 的增长主管)那里得到的最重要的启示:
1. 在 AI 领域,你现在需要每三个月找到一次产品市场契合度。产品市场契合度过去意味着:构建人们想要的东西,然后扩展它多年。在 AI 领域,底层技术变化如此之快——以及客户期望随之变化——你不断地重新赢得这种契合度。即使在 2 亿美元的 ARR 下也是如此。
2. AI 公司的增长策略手册已经发生了根本性变化。埃琳娜·维尔娜曾领导 Miro、Dropbox 和 Amplitude 的增长,并为数十家公司提供增长咨询。在 Lovable,她说她 20 年来学到的东西中只有 30% 到 40% 仍然适用。
3. 在 Lovable,增长主要由新功能驱动,而不是优化漏斗。在历史上发展最快的公司中,优化驱动了大约 5% 的增长。另外 95% 来自于推出新功能和产品。当一切都在变化时,小的调整将杯水车薪。
4. 持续发布,并积极宣传。Lovable 的主要增长和留存策略:足够快地发布功能,让客户觉得产品始终充满活力。工程师宣布他们自己的更新。创始人每天发布进展推文。这让用户保持好奇——并让竞争对手疲于奔命。
5. 如同分发糖果般,慷慨免费提供你的产品。AI 产品的运行成本很高,所以大多数公司将其隐藏在付费墙后面。Lovable 则反其道而行之:他们资助黑客马拉松,赞助活动,并分发免费积分。他们将这笔开支视为营销,而不是成本——并通过口碑传播产生复合效应。
6. 影响力营销的效果比付费广告高 10 倍。Lovable 发现,展示产品功能的短视频比传统的付费广告传播更快,转化更好。眼见为实,胜于空谈。
7. “最小可行产品”已死。埃琳娜·维尔娜将新的最低标准描述为“最小可爱产品”。如果体验不能取悦人们,他们就不会告诉任何人。而口碑是你的主要引擎。
8. 社区不再是锦上添花。它是增长的关键杠杆。Lovable 的 Discord 拥有数十万成员互相帮助。这放大了口碑传播,推动了留存,并让客户感觉像是内部人士。仅仅构建产品已经不够了——你正在构建一个世界。
9. 招聘那些能在混沌中理清思路、创造明确方向的人才。快速发展的 AI 公司没有整洁的职位描述或稳定的路线图。埃琳娜·维尔娜寻找那些在高压混乱中仍能表现出色、充满自主能动性的人,包括 AI 原生应届毕业生和懂得如何在没有指令下运作的前创始人。
10. 你可以在历史上发展最快的公司工作,并且仍然能看到你的孩子。埃琳娜·维尔娜在斯德哥尔摩时间早上 6 点醒来,保障她的健身和家庭时间,不以精疲力尽为荣。她的观点是:如果你设定了界限,工作会填满可用时间——而不是所有时间。
2025 年临近尾声,我们依旧干劲十足!⌛ 以下是我们本周发布的所有重要更新:
— Gemini 3 Flash:以极低的成本,为 @GeminiApp、Google 搜索中的 AI 模式、@GoogleAIStudio、Vertex AI 等平台和产品带来快速前沿的智能体验。
— CC:@GoogleLabs 在 Gmail 中推出的一款实验性 AI 生产力代理。使用 CC 获取每日个性化简报,或发送自定义请求以获得协助。
— Opal:现已集成到 Gemini 应用中,旨在用于创建实验性 Gems。
— @NotebookLM:新增了全新的 Studio 输出功能 ‘数据表’,可轻松组织和综合所有来源数据。
— @FlowByGoogle:推出了 2K 和 4K 图像超分辨率功能,可生成超高分辨率图像。
— Playables Builder:@YouTube 上的一个原型网络应用,由 Gemini 3 Pro 构建。通过简短的文本、视频或图像提示,即可开发可以在 YouTube 上直接体验的游戏。
— Gemini 应用:一整套更新,包括深度研究的可视化效果,与 @NanoBanana 合作实现的图像编辑涂鸦和注释,以及将 Gemini Agent 扩展到移动应用。
— SynthID 水印:除了图像之外,现在还可以验证 AI 生成的视频。直接在 Gemini 应用中检查视频是否经过 Google AI 编辑或由其创建。
— Gemma 家族:发布了一些更新,包括 FunctionGemma(Gemma 3 270M 模型的一个专用版本)、T5Gemma 2(我们编码器-解码器模型的下一个演进),以及 Gemma Scope 2(一个用于语言模型可解释性的开放套件)。
如果我能给我 18 岁的自己发一条信息,它将包含三个部分:
1. 声望常常是错误的。与其追求声望,不如追随好奇心。
2. 没有办法避免努力工作。它不是成功的充分条件,但却是必要条件。
3. 不要把父母的付出视为理所当然。
“做出人们想要的东西”听起来显而易见,但“没有做到这一点”却是创始人最常犯的错误。我在我创造这个术语的文章中解释了自己为何会犯这个错误。我当时不理解自己所服务的市场,所以误解了它的真正需求。
paulgraham.com/bronze.html
Andrej Karpathy 是 OpenAI 联合创始人、前特斯拉 AI 总监,也是全球最有影响力的 AI 研究者之一。他刚刚发布了一篇 2025 年 LLM 年度回顾。
第一个大变化:训练方法的范式升级
2025 年之前,训练一个好用的大模型基本是三步走:预训练、监督微调、人类反馈强化学习。这个配方从 2020 年用到现在,稳定可靠。
2025 年多了关键的第四步:RLVR,全称是 Reinforcement Learning from Verifiable Rewards,翻译过来就是「可验证奖励的强化学习」。
什么意思?简单说,就是让模型在「有标准答案」的环境里反复练习。比如数学题,答案对就是对,错就是错,不需要人来打分。代码也一样,能跑通就是能跑通。
这和之前的训练有什么本质区别?之前的监督微调和人类反馈,本质上是「照葫芦画瓢」,人给什么样本,模型学什么样本。但 RLVR 不一样,它让模型自己摸索出解题策略。就像学游泳,之前是看教学视频模仿动作,现在是直接扔水里,只要你能游到对岸,怎么划水我不管。
结果呢?模型自己「悟」出了看起来像推理的东西。它学会了把大问题拆成小步骤,学会了走错路时回头重来。这些策略如果靠人类标注示范,根本标不出来,因为人自己也说不清「正确的思考过程」长什么样。
这个变化带来一个连锁反应:算力的分配方式变了。以前大部分算力砸在预训练阶段,现在越来越多算力用于 RL 阶段。模型的参数规模没怎么涨,但推理能力飙升。OpenAI 的 o1 是这条路的起点,o3 是真正让人「感觉到不一样」的拐点。
还有个新玩法:推理时也能花更多算力。让模型「想久一点」,生成更长的推理链条,效果就更好。这相当于多了一个调节能力的旋钮。
第二个大变化:我们终于搞懂了 AI 是什么「形状」的聪明
Karpathy 用了一个很妙的比喻:我们不是在「养动物」,而是在「召唤幽灵」。
人类的智能是进化出来的,优化目标是「在丛林里让部落活下去」。大模型的智能是训练出来的,优化目标是「模仿人类文本、在数学题里拿分、在评测榜单上刷分」。
优化目标完全不同,出来的东西当然也完全不同。
所以 AI 的智能是「参差不齐」的,英文叫 jagged intelligence。它可以在某些领域表现得像全知全能的学者,同时在另一些领域犯小学生都不会犯的错。上一秒帮你推导复杂公式,下一秒被一个简单的越狱提示骗走你的数据。
为什么会这样?因为哪个领域有「可验证的奖励」,模型在那个领域就会长出「尖刺」。数学有标准答案,代码能跑测试,所以这些领域进步飞快。但常识、社交、创意这些领域,什么是「对」很难定义,模型就没法高效学习。
这也让 Karpathy 对基准测试失去了信任。道理很简单:测试题本身就是「可验证环境」,模型完全可以针对测试环境做优化。刷榜变成了一门艺术。所有基准都刷满了,但离真正的通用智能还差得远,这是完全可能发生的事。
第三个大变化:LLM 应用层浮出水面
Cursor 今年火得一塌糊涂,但 Karpathy 认为它最大的意义不是产品本身,而是证明了「LLM 应用」这个新物种的存在。
大家开始讨论「X 领域的 Cursor」,这说明一种新的软件范式成立了。这类应用做什么?
第一,做上下文工程。把相关信息整理好,喂给模型。
第二,编排多个模型调用。后台可能串了一堆 API 调用,平衡效果和成本。
第三,提供专业场景的界面。让人类能在关键节点介入。
第四,给用户一个「自主程度滑杆」。你可以让它多干点,也可以让它少干点。
有个问题被讨论了一整年:这个应用层有多「厚」?模型厂商会不会把所有应用都吃掉?
Karpathy 的判断是:模型厂商培养的是「有通用能力的大学毕业生」,但 LLM 应用负责把这些毕业生组织起来、培训上岗,变成能在具体行业干活的专业团队。数据、传感器、执行器、反馈循环,这些都是应用层的活。
第四个大变化:AI 搬进了你的电脑
Claude Code 是今年最让 Karpathy 印象深刻的产品之一。它展示了「AI 智能体」应该长什么样:能调用工具、能做推理、能循环执行、能解决复杂问题。
但更关键的是,它跑在你的电脑上。用你的环境、你的数据、你的上下文。
Karpathy 认为 OpenAI 在这里判断失误了。他们把 Codex 和智能体的重心放在云端容器里,从 ChatGPT 去调度。这像是在瞄准「AGI 终局」,但我们还没到那一步。
现实是,AI 的能力还是参差不齐的,还需要人类在旁边看着、配合着干活。把智能体放在本地,和开发者并肩工作,才是当下更合理的选择。
Claude Code 用一个极简的命令行界面做到了这一点。AI 不再只是你访问的一个网站,而是「住在」你电脑里的一个小精灵。这是一种全新的人机交互范式。
第五个大变化:Vibe Coding 起飞了
2025 年,AI 的能力跨过了一个门槛:你可以纯用英语描述需求,让它帮你写程序,完全不用管代码长什么样。Karpathy 随手发了条推特,给这种编程方式起了个名字叫 vibe coding,结果这个词火遍全网。
这意味着什么?编程不再是专业程序员的专利,普通人也能做。这和过去所有技术的扩散模式都不一样。以前新技术总是先被大公司、政府、专业人士掌握,然后才慢慢下沉。但大模型反过来,普通人从中受益的比例远超专业人士。
不只是「让不会编程的人能编程」。对会编程的人来说,很多以前「不值得写」的小程序现在都值得写了。Karpathy 自己就用 vibe coding 做了一堆项目:用 Rust 写了个定制的分词器、做了好几个工具类 App、甚至写了一次性的程序只为找一个 bug。
代码突然变得廉价、即用即弃、像草稿纸一样随便写。这会彻底改变软件的形态和程序员的工作内容。
第六个大变化:大模型的「图形界面时代」要来了
Google 的 Gemini Nano Banana 是今年最被低估的产品之一。它能根据对话内容实时生成图片、信息图、动画,把回复「画」出来而不是「写」出来。
Karpathy 把这件事放到更大的历史脉络里看:大模型是下一个重大计算范式,就像 70 年代、80 年代的计算机一样。所以我们会看到类似的演进路径。
现在和大模型「聊天」,有点像 80 年代在终端敲命令。文字是机器喜欢的格式,但不是人喜欢的格式。人其实不爱读文字,读文字又慢又累。人喜欢看图、看视频、看空间布局。这就是传统计算机为什么要发明图形界面。
大模型也需要自己的「GUI」。它应该用我们喜欢的方式跟我们说话:图片、幻灯片、白板、动画、小应用。现在的 Emoji 和 Markdown 只是初级形态,帮文字「化个妆」。真正的 LLM GUI 会是什么样?Nano Banana 是一个早期暗示。
最有意思的是,这不只是图像生成的事。它需要把文本生成、图像生成、世界知识全部绞在一起,在模型权重里融为一体。
Karpathy 的总结是这样的:2025 年的大模型,比他预期的聪明,也比他预期的蠢。两者同时成立。
但有一点很确定:即使以现在的能力,我们连 10% 的潜力都没挖掘出来。还有太多想法可以试,整个领域感觉是敞开的。
他在 Dwarkesh 的播客里说过一句看似矛盾的话:
> 他相信进步会继续飞速推进,
> 同时也相信还有大量的工作要做。
两件事并不矛盾。2026 年系好安全带继续加速吧。
Codex 现已支持技能,遵循 agentskills.io 标准:
🎉 Codex 现在正式支持技能
技能是可重用的指令、脚本和资源包,它们帮助 Codex 完成特定任务。
你可以直接用 `$.skill-name` 调用一个技能,或者让 Codex 根据你的提示选择正确的技能。
在 `React2Shell` 事件之后,我们有幸与世界上最好的安全研究人员合作,共同加强了我们的网络和运行时防御。
`WAFs` 被普遍认为是一个 🩹 “创可贴”,因为它们很容易被绕过,或者对应用和框架层协议缺乏深入分析能力。
我们不仅缓解了异常广泛的攻击种类,还训练了我们的 `WAF` 来理解 `Flight` 协议,并部署了纵深防御机制,自动修补了我们的计算层。
换句话说,即使您绕过了我们的 `WAF`,我们的客户依然受到了保护。
作为此次事件的成果,我们现在拥有了能够缓解极其复杂和精密的 `CVE` 的基础设施。`React2Shell` 事件的经验也为我们的防火墙(`Firewall`)和 `Fluid` 的设计改进提供了重要依据,我们相信这将推动防御性网络安全领域的发展。
We paid $1 million to hackers to harden our firewall defenses.
Today we're telling the story of how we strengthened our WAF, disclosing a runtime mitigation layer for the first time, and how we partnered with
@Hacker0x01 to defend against React2Shell.
vercel.com/blog/our-milli…
OpenAI 宣布其 Codex 工具现在正式支持“Skills”功能
该功能为 Claude 最初提出并应用
它允许用户将执行特定任务所需的指令、脚本和资源打包为可复用的技能。
用户可以使用特定命令(如 $.skill-name)直接调用技能,也可以让 Codex 根据上下文自动选用合适的技能。
AK 写了一篇播客回顾 2025 年的 AI 发展,它评价 nano banana 是 2025 年最具革命性的模型。
它的意义不止是个卓越的绘图模型,而是一种以图像为媒介的沟通方式。
🍌是图像版的 LLM。
未来还会有的视频版的 LLM。它会是什么?
🍅🥔🌶🍋?
AK 原文的翻译:
Google Gemini Nano Banana 是 2025 年最令人惊叹、具有范式转移意义的模型之一。
在我的世界观里,大语言模型(LLM)是继 20 世纪 70、80 年代个人电脑之后的又一个重大计算范式。因此,基于本质上相似的逻辑,我们将会见证类似的创新浪潮:
我们将看到个人计算的重生、看到微控制器的等价物(认知核心)、看到互联网的进化(智能体网络)等等。
特别是在用户界面与体验(UI/UX)方面,目前与 LLM 的“对话”模式,其实有点像 80 年代向计算机控制台输入命令行。
文本虽然是计算机(以及 LLM)最原始、最偏好的数据表现形式,但它并不是人类偏好的格式,尤其是在输入端。
事实上,人类并不喜欢阅读长篇累牍的文字——这既缓慢又费神。
相反,人类天生喜欢以视觉和空间的方式来摄取信息,这也是为什么传统计算领域会发明图形用户界面(GUI)。
同理,LLM 也应当以我们偏好的方式与我们交流
通过图像、信息图、幻灯片、白板、动画/视频以及 Web 应用等。
这种趋势的早期雏形当然就是表情符号(emoji)和 Markdown,它们通过标题、加粗、列表和表格等方式对文本进行“装饰”和排版,使其更易于阅读。
但究竟谁能真正构建出 LLM 时代的 GUI?
在这种视角下,Nano Banana 为我们展示了这种未来形态的初步端倪。
更重要的一点是,这种能力的显著之处不在于单纯的图像生成,而在于模型权重中将文本生成、图像生成和世界知识深度交织在一起所产生的“共生能力”。