
智东西
作者 | 云鹏
编辑 | 漠影
智东西 11 月 14 日消息,昨日,安谋科技正式发布了专为端侧大模型而生的最新一代 NPU IP —— " 周易 "X3,其能够与 Arm 架构 CPU、GPU 协同,组成基于 Arm 生态的异构算力解决方案。

总体来看,今天发布的 " 周易 "X3 在模型支持、硬件架构、软件生态、算力带宽、能效面效、扩展性和系统一致性等多方面进行了重点升级。
安谋科技产品研发副总裁刘浩提到,在安谋科技看来," 周易 "NPU 团队是驱动创新的核心引擎,NPU 也一直是安谋科技的战略核心产品。
从 2018 年开始,安谋科技就组建了国内最早的 NPU 研发团队之一,目前已经交付了 5 代 NPU,并实现了在终端领域的商业落地,据称 " 周易 "NPU 的研发和支持 100% 来自中国本土团队。
刘浩提到,今天端侧需要的不是单纯的算力堆叠,而是效率优先,一个系统性的、全局优化的算力底座。
一、软硬件深度协同," 周易 "X3 多点创新
具体来看此次发布的 " 周易 "X3,其采用了最新的 DSP+DSA 架构,从定点转向浮点计算,其最核心的特点是通用、灵活、高效、软硬件紧密协同的计算架构。

新的 " 周易 "X3 NPU IP 可以兼顾传统 CNN 架构与当下主流的 Transformer 架构,硬件架构方面,周易 X3 单 Cluster 算力可以支持 8-80TFLOPS(FP8),单核心带宽最高为 256GB/s。
此外," 周易 "X3 采用了 AI 专属硬件引擎 AIFF,配合专用硬化调度器,可以实现低至 0.5% 的 CPU 负载和低调度延迟。

软件生态方面,Compass AI 软件平台可以提供统一的端到端工具链支持全系列 " 周易 "NPU。
目前 Compass AI 软件平台已经兼容了 TensorFlow、ONNX、Pytorch 等主流 AI 框架,支持大模型动态 Shape 能力,同时支持 GPTQ 等大模型主流量化方案、Hugging Face 模型库,以及 LLM、VLM、VLA、MoE 等多种类型的模型。

在模型支持方面," 周易 "X3 支持的算子数量超过 160 个、支持的模型数量超过 270 个。
实际性能表现方面,其 CNN 模型性能相较上一代提升了 30-50%,在相同算力规格下,AIGC 大模型能力提升了 10 倍左右,多核算力线性度可以达到 70-80%,大模型 Prefill 阶段算力利用率提升至 72%,Decode 阶段有效带宽利用率在开启安谋科技自研的解压引擎 WDC 情况下超过 100%。
二、AI PC 端侧 AI 能力暴涨," 周易 " 全家桶应用案例集中展示
此次在发布会现场的 Demo 展区,我们看到基于 " 周易 "NPU IP 实现的诸多场景化落地解决方案。

比如在当下业内大火的 AI 视觉识物、AI 读懂世界方面,基于 " 周易 "X3,AI PC 本地运行 MinicpM v2.6 模型,可以实现随时拍照随时识图,AI 快速图解各类事物。
在经典的文生图应用方面,基于 " 周易 "X3,AI PC 本地运行 Stable Diffusion v1.5,可以实现流畅高质量的端侧文生图,从演示案例来看,图片的清晰度不错,同时生成速度仅为 " 秒级 ",AI 可以帮助创作者更高效地将创意想法变为现实。

在基础的文生文应用中,我们看到 " 周易 "X3 可以支持端侧运行
DeepSeek-R1-Distill-Qwen-1.5B,AI 对话的流畅度、tokens 生成速度都有比较明显的提升。
整体来看,相比前代产品,X3 在性能方面的大幅提升以及生态方面的出色支持,带来的最直观效果就是 AI 应用实际体验的流畅度大幅提升。
据了解,从加速卡、AI PC、AI 手机、具身智能、智能座舱、ADAS(高级驾驶辅助系统)到智能 IPC 等终端," 周易 "X3 NPU IP 已经可以覆盖基础设施、智能汽车、移动终端、智能物联等领域。
结语:All in AI 的安谋,手握软硬技术生态,加速本土端侧 AI 落地
长期以来,安谋科技专注于核心 IP 设计,针对 AI 技术趋势前瞻布局,可以很好的解决客户自研 AI 芯片的痛点。
安谋科技当前的战略发展方向是 "AI Arm China",也就是全力 All in AI。具体来看,安谋科技会提供 NPU IP、开放合作、提供完整解决方案。
未来两年内,安谋科技会发布更多的 NPU 产品,我们也期待在端侧 AI 爆发的未来,安谋科技能够在技术和生态上带给行业更多惊喜。


登录后才可以发布评论哦
打开小程序可以发布评论哦