硅星人 21小时前
千问3.5是阿里AI的“大一统”时刻
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

2026 年 2 月 5 日,春节前夕,阿里巴巴集团内部完成了一项看似低调却意义深远的调整:将旗下 AI 的总称和核心品牌统一为 " 千问 "。

直到 2 月 16 日的大年三十,阿里发布了最新的开源模型千问 3.5。用一款模型整合了原生多模态,在视觉理解、复杂推理、Agent 智能体等核心能力维度全面整合到统一的预训练架构中。

Qwen3.5-Plus   总参数   3970   亿,但推理时仅激活   170   亿,以不到   5%   的参数撬动了全部智能。在多项基准测试中性能媲美 GPT-5.2、Gemini-3-pro 等闭源第一梯队模型,甚至超越了自家上一代万亿参数的 Qwen3-Max。用更小的模型,跑出了更强的性能。而成本不升反降,API 价格仅为同等性能 Gemini 3 Pro 的 1/18,部署显存占用相比上一代降低 60%,推理效率大幅提升,最大推理吞吐量可提升至 19 倍。

你会发现这不只是一次品牌的统一,更是组织的统一、架构的统一,最终指向 AI 战略的统一。

当 " 千问 " 成为一个贯穿技术、产品与商业的统一符号,当 Qwen3.5 用 " 一款模型打天下 " 的策略在春节档炸场,它不再只是又一次榜单刷新,而是阿里 AI 战略从分散走向协同、从单点突破走向系统作战的集中呈现。

Qwen3.5 凭什么再掀巨浪?

Qwen3.5 的出现意味着,企业可以用过去几分之一的成本,部署性能顶级的 AI 系统,参考 R1 曾经干的事,用更小的参数规模、更低的部署成本获得更强的智能表现。

但这并非一夜之间的灵光乍现,而是 Qwen 系列一以贯之的战略延续:从 Qwen1.5 到 Qwen2.5,再到今天的 Qwen3.5,阿里巴巴的优化方向从来不是 " 如何把模型做得更大 ",而是 " 如何用更小的模型,做出顶尖的性能 "。

早在 Qwen1.5 时代,阿里就推出了从 0.5B 到 110B 的完整参数谱系,在千亿级模型上验证了规模与效率的平衡之道。Qwen2.5 延续这一思路,72B 模型以不到 Llama3 405B 五分之一的参数规模实现性能超越,而 1.5B 量级的小模型在数学推理和编程等领域同样展现出惊人的能力密度。这种 " 以小胜大 " 的能力,不是偶然的某一次爆发,而是贯穿每一代产品的稳定输出。

正是这种贯穿每一代的战略定力,让 Qwen3.5 的突破有了更深层的意义:它不只是又一次刷新榜单,而是将 " 以小胜大 " 的能力从单一的语言智能,拓展到了更广阔的多模态世界。

当前行业多模态模型多走 " 拼装 " 路线,语言模型外挂视觉模块,常导致视觉增强而语言 " 降智 "。而 Qwen3.5 选择了一条更深入,也更复杂的道路,从预训练第一天起就在海量的文本与视觉混合数据上联合学习,让视觉与语言在统一参数空间深度融合,从而让模型真正具备跨模态直觉理解力,能像素级定位图像、理解 2 小时视频时序、将手绘草图转前端代码,甚至作为视觉智能体操控手机电脑。

在复杂推理与 Agent 能力上,Qwen3.5 通过混合注意力机制、极致稀疏 MoE 架构、原生多 Token 预测及注意力门控机制等核心技术协同作用,实现动态分配计算资源、以不到 5% 激活参数调动 397B 总参数知识储备,推理速度翻倍的同时确保训练稳定可靠。

下面这个案例,是简单几步在 OpenClaw 里配置了 Qwen3.5,让它进行搜索过去一个月内发布的新   AI   模型,将信息汇总成一份报告,并最终自动将生成   PDF   文件直接在聊天窗口中发送回给我。

从搜索、整合信息到排版生成文件,再到跨平台发送,最终输出的报告不仅列出了模型,还包含了  "SWE-Bench"   基准测试对比表,显示了各模型在解决软件工程问题上的表现。

4000 亿参数超越万亿参数,API 价格仅为同等性能 Gemini 3 Pro 的 1/18 ……这些数字单独看是产品迭代,放在一起看,则意味着一个拐点的到来:顶级 AI 能力不再是高算力、高成本的闭环游戏,而是变成个人开发者、创业团队、中小企业也能触碰的基础能力。

一个统一的阿里

在全球所有模型厂商里,阿里都是一个特殊的存在。大多数 AI 公司要么专注模型研发,要么深耕芯片设计,要么依托云基础设施,但极少有厂商能将这三者同时握在手中,并让它们在一个统一的战略目标下协同运转。

但阿里做到了。

Qwen3.5 的背后,站着整个阿里云的技术体系。Qwen3.5 的 " 极致性价比 " 并非孤立的技术成果,而是模型、芯片与云协同创新的产物。

在模型层面,千问大模型团队持续迭代,从 Qwen2.5 到 Qwen3 再到 Qwen3.5,每一代都在关键能力维度上突破开源模型的天花板,稳定输出天花板级产品。在芯片层面,平头哥自研的 " 真武 " 芯片针对 MoE 架构模型做了大量优化,可满足千问大模型对大规模计算的需求,让芯片与模型联合设计,发挥极致算力潜力。

更重要的是,阿里云提供从训练到推理的全链路优化,比如通过设计精巧的 FP8/FP32 精度应用策略,激活内存减少约 50%,训练提速 10%,且这套方案被统一部署到强化学习训练和推理的全流程中,全面降低了多模态模型扩展的成本和复杂度。在智能体训练上,团队还专门搭建了一套大规模强化学习框架,覆盖纯文本、多模态和多轮对话等各种场景,整体效率提升 3 到 5 倍,让模型能在海量真实场景中反复实战、持续进化。

这种模型、芯片和云的软硬件紧密耦合,最终实现了 "1+1+1>3" 的效果,不仅能更好发挥芯片的算力潜力,提升集群的算力效率,还能有效提升模型训练与推理的效率。得益于此,Qwen3.5 的 API 价格进一步探底,而开源协议 Apache 2.0 的完全开放,让全球开发者得以零门槛使用、研究甚至二次开发世界顶级的多模态 AI 能力。

放眼全球,有能力将这三者深度耦合的科技公司屈指可数,而阿里是其中之一,也是唯一走通开源路线的那个。

这种协同创新的成果,正在以惊人的速度转化为生态效应。截至目前,千问模型的开源数量已超 400 个,衍生模型突破 20 万个,下载量超 10 亿次。

在中国企业级大模型调用市场中,千问位居第一,并成为阿里云新增需求的主要驱动力,带动计算、存储及数据库等基础资源消耗的增长。根据 Omdia 数据,2025 年上半年,中国 AI 云整体市场规模达 223 亿元,阿里云占比 35.8%,超过第二到第四名总和;阿里云在中国云市场的整体份额也从 33% 提升至 36%,领先优势持续扩大。

这些数字背后是一个正在加速成型的正循环:开源吸引开发者,开发者催生应用,应用反哺云和芯片业务,业务收益再投入下一代模型研发。而当技术本身足够高效,成本就不再是需要刻意压缩的东西,它自然就低了。Qwen3.5 让 " 最强 " 和 " 最便宜 ",同时出现在了一个模型上。

回看过去几十年的科技产业史,Linux 定义了服务器时代,Android 定义了移动时代,它们的共同点是开源、免费、无处不在,最终成为整个产业默认的底层。

而它们的背后,都站着一个能够调动全栈资源、保持战略定力的推动者。今天的阿里,正在扮演这个角色。

当组织统一、战略统一、技术协同成为常态," 千问 " 就不再只是一个模型系列的名称,而是 AI 时代基础设施的代名词。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 阿里 阿里巴巴 阿里巴巴集团 春节档
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论