你的下一块 AI 芯片,何必非得是英伟达和 AMD。
高通宣布推出两款全新的 AI 芯片——AI200和AI250,正式进军数据中心市场。
消息一出,高通股价一度飙升超20%,创自 2019 年以来的最大单日涨幅。

巧的是,高通上一款数据中心产品 AI 100 也是 2019 年发布,但那时更多面向端侧 / 轻量级推理。
时隔六年," 手机芯片的神 " 终于撕掉了 " 端侧标签 ",正式向大型数据中心市场发起冲击。
这回,真要从英伟达嘴里抢肉吃了。
从端侧转向云端
高通此次推出的AI200与AI250,本质上是面向数据中心的机架级推理加速器与整机架系统,聚焦 AI 模型的推理阶段,主打行业最低的总拥有成本(TCO)、更高的能效与更强的内存处理能力。
(注:总拥有成本指的是购买、部署和运营某项设备或系统的全周期成本)

AI200预计 2026 年商用,既可作为独立芯片 / 卡模块出售,也可作为由高通交付的整机架服务器系统提供。
基于 AI200 的机架系统支持多颗芯片协同工作,每张加速卡支持768GB LPDDR内存,面向大语言模型和多模态推理场景。
AI250 计划 2027 年推出,其差异化亮点是引入近存计算(near-memory computing)的全新内存架构。
高通声称这一架构能带来超过10 倍的有效内存带宽提升并显著降低功耗,从而更好支持 " 解耦式 AI 推理(disaggregated inference)" 等大规模推理部署模式。
两种机架方案均支持直液冷散热、PCIe 与以太网扩展、机密计算(confidential computing)等企业级功能,且面向高密度机架场景(160kW 级别)。
除了硬件,高通同时在推进面向超大规模推理的端到端软件栈,承诺支持主流框架与工具链(如 PyTorch/ONNX、vLLM、LangChain、Hugging Face 等),并提供一键部署与运维工具,以降低客户 TCO 并加速模型在生产环境的落地。
此外,高通还表示,未来将以每年一代的节奏推进数据中心产品路线图,持续提升 AI 推理性能、能效表现以及整体 TCO 竞争力。
从安卓机到数据中心,早有布局
虽然大家平时印象里高通都是手机芯片,但其实早在 2019 年,高通就已经开始布局数据中心芯片了。
只不过那会儿主要还是瞄准物联网、5G 这些端侧场景。
这次的爆发,一方面得益于高通在手机芯片的技术积累—— AI200/AI250 的核心计算单元就源自Hexagon 神经处理单元(NPU)。
另一方面,高通近年来不断改进 Hexagon NPU,不仅加入标量、矢量、张量加速器,支持 INT2、INT4、INT8、INT16、FP8、FP16 等多种数据格式,还搞了微块推理、64 位内存寻址、虚拟化和生成式 AI 模型加密。
正如高通数据中心与边缘计算业务总经理Durga Malladi说:
我们先在别的领域证明了自己,等实力够了,再进数据中心,顺理成章。
除开高通自己的努力,数据中心本身就是一块肥肉。
据麦肯锡预测,到 2030 年,全球数据中心投资将达到6.7 万亿美元。
虽然目前的市场格局,仍是英伟达吃肉(占 90% 以上份额)、AMD 吃面,其余人喝汤,但巨头们也都在找替代方案——
比如,OpenAI 这个月宣布要买 AMD 芯片,可能还要入股。
谷歌、亚马逊、微软也都在搞自家 AI 加速芯片。
高通的入局,无疑让市场更热闹了。
截至目前,高通已经拿下沙特 AI 初创公司Humain的订单,该公司计划从 2026 年起部署基于AI200/AI250的机架级算力系统,总功率高达200 兆瓦。

让我们进一步期待高通后续的动作吧!
参考链接:
[ 1 ] https://www.bloomberg.com/news/articles/2025-10-27/qualcomm-unveils-chip-to-rival-nvidia-in-ai-accelerator-market
[ 2 ] https://www.qualcomm.com/news/releases/2025/10/qualcomm-unveils-ai200-and-ai250-redefining-rack-scale-data-cent
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
年度科技风向标「2025 人工智能年度榜单」评选报名火热进行中!我们正在寻找 AI+ 时代领航者 点击了解详情
❤️ 企业、产品、人物 3 大维度,共设立了 5 类奖项,欢迎企业报名参与
一键关注 点亮星标
科技前沿进展每日见


登录后才可以发布评论哦
打开小程序可以发布评论哦