文章
文章详细介绍了波士顿动力如何通过训练拥有 4.5 亿参数的大型行为模型(LBMs),显著提升了 Atlas 人形机器人的通用操作能力。LBMs 是一种端到端的、由语言指令驱动的策略模型,它能让 Atlas 完成需要长期规划的复杂移动和灵巧操作任务。文章阐述了构建策略模型的四个核心步骤:数据收集(通过遥控操作)、数据处理标注、统一神经网络训练以及评估迭代。核心原则包括最大化任务覆盖、训练通用策略模型以及构建快速迭代的基础设施。文章通过“维修站”任务等具体案例,展示了 Atlas 在协调运动、精准操作、应对意外情况以及自适应调整执行速度等方面的惊人能力,突显了 LBMs 在处理易变形物体和复杂任务上的优势,预示着通用 AI 机器人的未来。
文章通过对 Claude Code 产品经理 Cat Wu 的深度访谈,首次揭示了 Anthropic 如何以“内部全员当小白鼠”的独特方式快速迭代 Claude Code 新功能,强调原型优先而非文档。文章详细介绍了 Claude Code 在不同规模团队中的常见用例,如小团队的“多 Claude 并行”和大企业的“计划模式”。此外,文章还深入探讨了 CLAUDE.md、自定义斜杠命令和钩子等定制化功能,以及 Claude Code SDK 如何赋能开发者构建各种 AI 代理。最后,Cat Wu 分享了将 Claude Code 视为人类工程师进行沟通的最佳实践。整体而言,文章提供了对 Claude Code 开发、使用和未来潜力全面而深入的洞察。
本文围绕 AI 领域超大规模神经网络的突破性进展,挑战了机器学习中“模型越大越容易过拟合”的传统铁律。文章首先回顾了三百年统计学理论中偏差-方差权衡的原理,指出其曾限制了 AI 研究者对大模型的探索。然而,2019 年研究者们发现,在模型规模超越传统过拟合点后,性能反而再次显著提升,这一现象被称为“双降”。随后,文章引入了“彩票假说”,解释了为何庞大参数量的网络能成功:大网络并非学习更复杂的解,而是提供了更多机会找到“简单解”的微型子网络。训练过程如同大规模摇奖,那些初始化更好的子网络会在学习中胜出。这一新认知不仅调和了经验成功与经典理论的矛盾,也对智能的本质(即智能是搜索简单解释的空间,而非存储复杂信息的仓库)和科学发现的路径(即突破常来自挑战共识边界)产生了深远影响。文章强调,此次 AI 革命的成功,源于对不确定性的拥抱和对旧原则在更高层面运作的发现。
文章引用英伟达和佐治亚理工学院的研究,挑战了当前 AI Agent 普遍依赖超大规模语言模型(LLM)作为大脑的主流范式。作者指出,在多数实际 Agent 场景中,SLM 已足够强大、更易管理且成本更低。文章从能力、工程适配性(如窄切片任务、多模型异构、数据闭环)和经济性(低推理成本、敏捷微调、边缘部署)三方面详细阐述了 SLM 的优势。同时,文章回应了关于大模型整体语言理解能力、集中化服务成本等常见质疑。为指导实践,文章提供了一份从 LLM 向 SLM 迁移的六步工程清单,包括安全埋点、数据清洗、任务聚类、模型选型、专科微调和迭代路由。最后,文章还指出了可能遇到的基础设施惯性、通用基准评测偏差和认知宣传偏差等挑战,并提供了避规策略,旨在推动技术团队采纳更健康的工程范式。
文章引用麻省理工学院 NANDA 计划的最新报告,指出美国公司在生成式 AI 项目上投入数百亿美元后,高达 95%的企业未能从中获得回报,仅 5%的组织成功将 AI 工具大规模集成到生产系统,形成显著的“生成式 AI 鸿沟”。报告认为,造成鸿沟的核心原因并非基础设施或人才不足,而是 AI 系统在数据长期留存、适应业务变化和持续学习能力方面的欠缺。文章进一步分析,通用 AI 工具如 ChatGPT 因用户熟悉度高、迭代能力强,在实际应用中常优于投入巨资定制的企业级工具。在行业影响方面,科技、媒体与电信业受 AI 影响最为明显,并已出现非核心、标准化岗位的人员缩减。文章建议企业应将 AI 投资转向能带来有意义业务结果的活动,并强调成功部署 AI 的关键在于将其视为业务流程外包而非单纯的软件订阅,需要深入定制、一线推动及供应商对业务指标负责的合作模式。