文章

刚刚,微软推出 AI 浏览器,上网从此不一样了
量子位
07-29
1543 字 (约 7 分钟)
AI 评分: 94
⭐⭐⭐⭐⭐

文章详细报道了微软 Edge 浏览器推出的“Copilot 模式”,该模式将浏览器深度集成 AI 能力,使其从显示工具转变为能主动执行任务的 AI 助手。核心功能在于其跨标签页情境感知能力,能同时读取、分析所有打开的标签页,进行复杂总结和比较。文章介绍了 AI 浏览器如何通过统一输入框实现智能导航、信息提取、标签分组等功能,并提及了未来将推出的“主题式旅程”及自动执行预订、购物等任务。同时,文章也讨论了用户隐私和授权机制,以及微软在浏览器 AI 化竞争中的策略,将其与 Google Chrome 和新兴 AI 浏览器进行对比。最后,文章探讨了 AI 浏览器可能带来的商业模式变化,预示着浏览器可能从免费转向订阅服务,并强调了上网方式的根本性转变。

人工智能中文AI浏览器Copilot微软Edge情境感知多标签页管理
我在 WAIC 上看到的十大趋势
量子位
07-30
6500 字 (约 26 分钟)
AI 评分: 93
⭐⭐⭐⭐⭐

本文详尽总结了 2025 年上海世界人工智能大会(WAIC)上观察到的十大核心 AI 趋势。首先,DeepSeek 的崛起重塑了中国 AI 界对 AGI 的信念,促使本土企业将目光投向 AGI 本身。其次,基础大模型正从单一追求 SOTA 转向综合考量推理能力、多模态融合及成本效益。文章强调开源大模型已进入“中国时间”,成为国内大模型的普遍选择。同时,国产芯片与大模型深度融合,形成“芯模一体、软硬协同”的闭环生态。AI 基础设施建设如火如荼,垂直行业大模型虽不“性感”但直接贡献生产力。AI 创新已进入 ToC 阶段,AI Agent 成为新风口,汽车、耳机和眼镜成为首批商业化 AI 终端。具身智能机器人赛道竞争白热化,技术趋向人形和 VLA/世界模型共识。非 Transformer 架构正从学术研究走向产业应用。最后,文章指出中国与硅谷的 AI 差距已缩短至 6 个月,中国拥有宝贵的后发优势和人才资源。

人工智能中文AI趋势WAIC大语言模型开源模型具身智能
抢跑 GPT-5,智谱开源新 SOTA 模型,一句话搞出能看视频、发弹幕的 B 站!
量子位
07-28
4233 字 (约 17 分钟)
AI 评分: 93
⭐⭐⭐⭐⭐

在业界普遍关注 GPT-5 发布之际,智谱发布了新一代旗舰开源大模型 GLM-4.5,采用 MoE 架构,总参数量达 3550 亿。该模型在代码和 Agent 能力上取得开源 SOTA,推理能力位居开源第二,并首次原生融合这三项能力。GLM-4.5 具备极快的生成速度和低廉的 API 调用价格,通过实际案例展示了其强大的代码生成和应用构建能力,如一句话生成可交互的百度、小红书、B 站等。文章还介绍了其技术细节(如 MoE、RoPE、Muon 优化器)和开源的强化学习基础设施 Slime,强调了其卓越的参数效率,为国产开源大模型树立了新标杆。

人工智能中文大语言模型智谱GLM开源模型MoE架构Agent能力
开源 Qwen 一周连刷三冠,暴击闭源模型!基础模型推理编程均 SOTA
量子位
07-26
1952 字 (约 8 分钟)
AI 评分: 93
⭐⭐⭐⭐⭐

文章报道了通义千问(Qwen)在短短一周内连续开源三款重磅模型:Qwen3-235B-A22B-Thinking-2507(推理模型)、Qwen3-235B-A22B-Instruct-2507(基础模型)和 Qwen3-Coder(编程模型)。这些模型在各自领域均取得了全球开源 SOTA 的成绩,其中 Qwen3 新推理模型(思考版)不仅在逻辑推理、数学、科学和编码任务上性能显著提升,支持 256K 原生上下文,并在“人类最后的考试”中超越 OpenAI o4-mini,还通过展示详细的“思考过程”来解决复杂问题,突显其创新优势。Qwen3-Coder 在 LiveCodeBench 和 CFEval 等编程基准测试中甚至超越了 Gemini-2.5 Pro 等闭源模型。文章强调了中国在开源大模型领域的快速崛起和领先地位,指出阿里通义大模型已成为全球第一开源模型家族。

人工智能中文大语言模型开源模型MoE推理能力编程能力
拆箱开源版 Coze:Agent 核心三件套大公开,48 小时揽下 9K Star
量子位
07-28
4712 字 (约 19 分钟)
AI 评分: 92
⭐⭐⭐⭐⭐

文章详细介绍了字节跳动 Coze 平台近期开源的两款核心产品:低代码可视化 Agent 开发平台 Coze Studio 和 Prompt 开发、评测与运维平台 Coze Loop,并结合此前已开源的 Agent 开发框架 Eino,共同构建了 Agent 从开发、评测到运维的完整生命周期闭环。文章指出,Agent 正从“炫技玩具”走向“落地应用”,但仍面临用户体验不稳定和开发门槛过高两大阻力。Coze 通过采用宽松的 Apache 2.0 开源协议,旨在吸引全球开发者共同参与,降低开发门槛,提升可扩展性,并通过标准化和网络效应推动 Agent 生态走向繁荣,加速其在企业自动化、中小团队、垂直行业及教育科研等场景的广泛应用。

人工智能中文AI Agent开源AI开发Prompt工程Coze Studio
百元级硬件流畅运行百亿参数大模型!上交&本智激活开源端侧原生大模型
量子位
07-27
3470 字 (约 14 分钟)
AI 评分: 92
⭐⭐⭐⭐⭐

文章深入探讨了上海交通大学 IPADS 研究所与初创公司本智激活联合开源的 SmallThinker 端侧原生大模型系列。针对当前端侧 AI 面临的算力、内存和存储瓶颈,SmallThinker 采用从零开始预训练的创新模型架构,旨在实现与端侧硬件的“精巧匹配”,而非传统模型的简单“压缩降智”。其核心技术特性包括:端侧算力原生的双层稀疏架构(提升 5 倍稀疏度)、端侧存储原生的专家路由前置(隐藏 I/O 开销),以及端侧内存原生的混合稀疏注意力(KV 缓存占用下降 76%)。文章通过具体的性能数据(如 4B 模型在 1GB 内存下 19.41 tokens/s,21B 模型在百元级 RK3588 开发板上实现 21 倍推理加速)和 MMLU、GPQA 等权威评测基准,充分证明了 SmallThinker 在模型能力和端侧推理性能上的卓越表现。此外,SmallThinker 系列模型兼容 HuggingFace Transformers 等主流推理框架,并与团队开发的 PowerInfer 端侧推理框架结合,可实现极致的端侧加速与内存优化。文章展望了 SmallThinker 在模型规模扩展和打造“个人贾维斯”式可信赖智能体方面的未来发展。

人工智能中文端侧AI大语言模型模型架构稀疏模型模型推理
小红书提出首个社交大模型:八大社交任务平均提升 14.02%
量子位
昨天
4610 字 (约 19 分钟)
AI 评分: 92
⭐⭐⭐⭐⭐

文章详细介绍了小红书团队推出的行业首个社交大模型 RedOne,旨在解决传统 NLP 模型在 SNS(社交网络服务)场景中面临的非规范化、强上下文依赖和情绪化等挑战。RedOne 突破了单一任务基线模型的性能瓶颈,并通过“继续预训练(CPT)→ 监督微调(SFT)→ 偏好优化(PO)”的三阶段训练策略,使其能够“既懂社交、又懂规则、更懂用户”。在 CPT 阶段,模型注入了社交文化知识;SFT 阶段强化了多元任务能力;PO 阶段则对齐了平台规范和人类偏好。实验结果显示,RedOne 在 8 个主要 SNS 任务上平均提升 14.02%,在有害内容检测和浏览后搜索等线上指标上也有显著改善,同时保持了良好的通用能力和泛化性。文章还通过消融实验验证了各训练阶段的贡献,并强调了混合通用数据对模型 OOD 鲁棒性的重要性,为垂域 LLM 的落地提供了有价值的参考。

人工智能中文大语言模型垂域模型社交网络自然语言处理小红书
DeepSeek 下一代技术提前曝光,梁文锋署名论文获 ACL2025 最佳论文奖
量子位
07-31
2042 字 (约 9 分钟)
AI 评分: 92
⭐⭐⭐⭐⭐

文章报道了 DeepSeek 梁文锋团队与北京大学等联合发表的论文在 ACL 2025 大会上荣获最佳论文奖。该论文核心提出了一种原生稀疏注意力(NSA)机制,旨在解决大语言模型处理长文本时传统全注意力机制计算复杂度高的问题。NSA 通过动态分层的稀疏策略,结合压缩注意力、选择性注意力和滑动注意力三条并行分支,实现了对全局、关键和局部信息的有效捕捉。更重要的是,NSA 针对现代 GPU 硬件进行了深度优化,实现了端到端原生可训练。实验结果显示,NSA 在处理 64k 长度序列时,解码速度提升 11.6 倍,前向传播提升 9 倍,反向传播提升 6 倍。在性能方面,NSA 预训练的 27B 模型在多项通用基准测试中超越全注意力基线,尤其在长文本处理(如“大海捞针”和 LongBench)及复杂推理任务上表现突出。这项技术被认为是 DeepSeek 下一代模型(如 DeepSeek-V4 和 DeepSeek-R2)的关键组成部分,有望将上下文长度扩展到百万 tokens 级别。文章还简要介绍了 ACL 2025 的其他三篇最佳论文,涵盖了模型对齐、公平性及响应采样机制等前沿研究。

人工智能中文大语言模型稀疏注意力长文本处理自然语言处理注意力机制
最高能效比!他又死磕"存算一体"2 年,拿出全新端边大模型 AI 芯片
量子位
07-28
3654 字 (约 15 分钟)
AI 评分: 92
⭐⭐⭐⭐⭐

文章详细介绍了后摩智能潜心两年研发的漫界 M50 AI 芯片,该芯片凭借其独特的第二代存算一体技术,实现了业界最高的能效比,典型功耗仅 10W,却拥有强大的算力。文章深入剖析了存算一体架构如何从根本上解决冯·诺依曼架构的“存储墙”和“功耗墙”问题,以及后摩智能在 SRAM-CIM 技术上的深度结构性改变和量产方案。同时,文章重点介绍了自研的第二代 IPU 天璇架构,其核心创新在于弹性计算和业内首次实现的存算架构上直接进行浮点运算,极大地降低了大模型应用落地的门槛。此外,配套的后摩大道编译器工具链通过软硬件协同优化,进一步释放了 M50 的潜能。文章还展示了覆盖终端和边缘的完整产品矩阵,包括 M.2 卡、加速卡和计算盒,旨在推动普惠 AI 的实现。最后,文章强调了存算一体是初创公司差异化竞争、技术发展趋势和普惠 AI 的必然选择。

人工智能中文AI芯片存算一体端边计算大模型能效比
智能座舱率先 L3!AI Agent 上车颠覆体验,千里科技 WAIC 交卷
量子位
07-28
3985 字 (约 16 分钟)
AI 评分: 92
⭐⭐⭐⭐⭐

文章深入介绍了千里科技在 WAIC 上发布的 Agent OS 智能座舱解决方案,旨在解决当前智能座舱同质化、被动交互及用户体验不足的痛点。该方案创新性地将 OpenAI 的 AGI 发展框架引入智能座舱领域,通过车载 AI Agent 将座舱体验提升至“L3 级”,彻底颠覆现有车载 APP 模式。文章通过点外卖、识别手机屏幕内容、个性化陪伴等具体场景,阐释了 Agent OS 在意图理解、多模态交互和用户记忆学习方面的核心突破,实现了座舱从被动助手到主动伙伴的转变。在技术实现上,Agent OS 结合了本地部署的 40 亿 参数多模态大模型与云端千亿参数语音大模型,并通过独特的 Agent 间通信协议(MCP)实现 AI 管理 AI,为智能汽车带来更自然、更智能的人机交互体验。此外,文章还深入探讨了智能汽车作为具身智能的初期产品形态,以及其作为 AGI 落地路径的巨大潜力,并有望改变车企在流量入口上的主导权。

人工智能中文智能座舱AI Agent多模态 AI人机交互具身智能