量子位 09-22
首创双NPU架构一鸣惊人!联发科天玑9500重磅加码主动式AI体验
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

一个问题,在当前的智能手机中,如果 AI 需要成为具有自主意识、会主动实现功能的 " 常驻能力 ",而不只是一个需要频繁被动焕新的 " 功能模块 ",什么样的芯片架构才能真正跟得上这样的改变?

联发科给出的答案是:以更犀利的算力和更友好的能效表现,创造超性能 + 超能效双 NPU 架构,始终让 "AI Always on"。

这是一次从技术形态到使用方式的转变:目的是让 AI 不再依赖被动唤醒,而是作为系统能力始终在线、随时响应,融入用户的每一次操作。

这一趋势正在形成共识。

随着大模型下沉,端侧 AI 的使用频率越来越高,从输入法里的预测补全,到拍照时的构图建议,从锁屏摘要到图像生成,AI 正在从 " 调用一次 " 变为 " 时刻可用 "。

为此,SoC 不仅要能跑得快,更要让 AI 跑得久、跑得稳,甚至在用户毫无察觉的情况下完成实时响应。

天玑 9500围绕这一目标重构芯片底座:首发双 NPU 架构,结合存算一体、硬件压缩等多项关键技术,在 ETHZ 苏黎世移动 SoC AI 榜单中蝉联榜首,相比上一代跑分翻倍。

显然,联发科不仅追求生成速度的提升,更意在构建 AI 在终端常驻运行所需的基础条件。

AI 能力 Always on

天玑 9500 正在让手机的 AI 变得更快、更聪明,也更贴近你的使用节奏。

写文案、整理想法、扩写内容、总结语音笔记……这类需要组织语言、梳理思路的任务,现在可以更快完成。

3B 大模型在天玑 9500 上的输出性能相比上一代提升 100%,内容生成更快、更流畅,连续输出时思路更连贯。

当输入变长,它也能高效处理。

天玑 9500支持 128K 上下文窗口,是上代的 4 倍,能一次性读入相当于 10 小时录音的数万字文本。

对于会议记录、采访稿、对话内容等长文材料,它可以根据要求快速提取重点,显著减少整理所需时间。

在文生图任务中,天玑 9500 支持的DiT 模型推理性能提升 100%,首次实现端侧 4K 超高画质生图,仅需 10 秒即可完成生成。

你可以根据一句文字描述,快速获得高质量图片,不依赖云端、不限网络环境,适合随时创作、分享或作为创意素材打底。

图生图方面,天玑 9500 支持个性化风格生成

你可以用已有图片为基础,自定义输出风格,例如将照片转为手绘、插画、水彩风,或套用特定艺术滤镜。在表达创意的同时,也提升了图像内容的独特性和辨识度。

你可以用它进行素材美化、或尝试创意改图,完成社交发布、内容创作等日常任务。

为了让这些能力真正服务于日常场景,联发科与手机厂商也在深入合作,共同推动端侧 AI 落地。

vivo与联发科基于天玑 9500 联合打造了蓝心 AI 录音机、分钟级训练的定制美颜,以及全场景的蓝心大模型端侧推理与训练能力

OPPO则在小布识屏与 AI 意图搜索上,与天玑 9500 进行异构计算和内存优化协同,还有更多品牌正与联发科围绕天玑 9500 展开端侧 AI 能力部署探索。

不只是生成和理解,天玑 9500 也具备了一种全新的 AI 运行方式,让 AI 能力在手机中保持持续在线

这意味着,部分 AI 功能可以常驻系统后台,无需反复唤醒,也不会影响你的使用节奏。比如在拍照时,它会自动运行,实现帧帧追焦,即使你不停移动,焦点也能始终准确锁定,画质清晰稳定,达到单反级水准。

"AI Always on"不是某一项功能,而是一种新的运作方式,让 AI 真正融入日常使用,在不打扰你的情况下,持续提供帮助。

超性能 + 超能效,首创双 NPU 架构

要让端侧 AI 真正进入日常应用,实现 "Always on" 的常驻智能体验,必须从硬件架构开始重构运行基础

天玑 9500 围绕这一目标,首次提出 " 双 NPU" 设计,通过超性能核与超能效 NPU 协同工作,构建了一套真正面向 AI 常驻场景的系统方案。

超性能 NPU990 面向高强度推理任务,搭载全新深层次 AI 引擎 2.0,核心算法调度与执行结构全面重构,支持大模型在本地高效运行。

在 ETHZv6.0.3 测试中,其得分达到 15015,相比天玑 9400 提升超过一倍,展现出极强的通用算力与生成能力,继续实现 AI 性能的霸榜。

这一性能奠定了 AI 助手在本地完成摘要、翻译、命名等复杂任务的能力基础,也为后续常驻化提供了算力保障。

超能效 NPU 则专注于 AI 功能的低功耗常驻场景,是支撑 "Always on" 体验的关键组件。

首次采用存算一体架构,将传统架构中分离的计算单元与缓存单元进行物理融合,避免高频数据搬移带来的冗余能耗。得益于此,天玑 9500 可显著改善常驻 AI 任务下的发热与续航问题。

为了量化能效表现,联发科引入" 能效曲线竞争力 "分析体系,实际测得该架构在 3~4W 功耗区间内,推理效率相比天玑 9400 提升 56%

相比传统只能在峰值性能中 " 跑分 " 的设计,这一架构重心明确落在真实使用条件下的性能释放,真正支撑起 AI 的持续在线与多轮交互。

与硬件架构革新同步,天玑 9500 还在系统层面对端侧 AI 落地面临的三大关键问题给出了解决路径。

模型加载速度慢,AI 助手启动时延迟高,用户体验割裂;

模型驻留内存时功耗高,设备易发热,续航难以保障;

端侧模型训练内存占用过大,定制化和个性化能力难以部署;

针对这些挑战,天玑 9500 引入三项系统级技术方案——

在加载阶段,首发四通道 UFS 4.1,打破传统带宽瓶颈,模型加载速度提升 40%;

在内存调度上,结合硬件级压缩,4B 大模型在 1.6GB 内即可运行,即使在 DRAM 资源有限的场景中也能稳定部署;

在推理阶段,1.58bit 量化、专用 Transformer 电路与 Eagle 推理加速算法三项技术协同发力,生成速度比天玑 9400 提升 2 倍以上,保障多轮交互响应的连贯性与即时性;

在训练端,天玑 9500 配合 vivo 自研算法对端侧训练链路进行压缩与结构优化,将内存需求降至 2GB,首次实现在终端侧完成个性化美颜等训练任务,让模型能够随着用户使用不断进化。

多项技术叠加之后,围绕加载慢、功耗高、训练难这三大典型挑战,天玑 9500 已经从硬件到底层算法形成了一套系统级应对方案,打通了从模型唤醒、持续运行到个性化优化的完整链路。

但架构革新与系统整合的意义远不止于此。

这些技术不仅是对痛点的响应,更是为 AI 从 " 可调用 " 走向 " 默认在线 " 的状态提供支撑。

在天玑 9500 上,AI 能力不再是某个应用场景中的附加项,而是贯穿图像、语音、文字、传感器等多模态输入的系统能力,随时响应、主动协同。

也正因此,天玑 9500 的双 NPU 设计不是一次单纯的性能演进,而是一场围绕端侧 AI 运行机制的深层次重建。

AI 能力融入原生操作流程

为什么移动 AI 的演进方向指向 "Always on" 的端侧形态?这并不是一个 " 端 " 与 " 云 " 的路线抉择,而是源于用户行为习惯与 AI 使用方式的同步演变。

在 AI 进入移动设备早期,它的存在往往是显式的、阶段性的——用户有具体操作,AI 才启动响应,交互模式以 " 工具使用 " 为核心。

但今天,这种交互逻辑正在改变。

越来越多的 AI 能力开始融入用户的原生操作流程,成为交互的一部分。

这种转变带来一个核心前提:响应需要是即时的,不可依赖被动加载或临时唤醒。

换句话说,AI 如果想要发挥 " 主动服务 " 的价值,就需要常驻于系统之中,成为设备资源调度的一部分,而非外挂式工具。

在这个意义上,Always on 不仅是硬件运行状态,更是面向交互体验的一种基础能力。

只有 AI 能力常在,系统才能实现及时响应,才能支撑从人发出指令到 AI 感知意图之间的过渡阶段。

而这种即时性,正是推动 " 无感交互 " 成为可能的关键条件。

当用户不再需要明确表达请求,系统便已给出恰当响应,AI 也就从 " 辅助功能 " 逐渐变为 " 使用默认 "。

这也意味着,端侧 AI 将不再局限于某类特定任务,而是开始在系统各层持续参与,推动人机交互朝着更自然、更流畅的方向演进。在这一背景下,联发科提供了一套具有现实落地能力的技术组合。

通过超性能 + 超能效的双 NPU 架构覆盖高性能与高能效场景,通过系统级整合解决加载、推理、训练等关键瓶颈,天玑 9500 为 AI 从 " 尝鲜 " 走向 " 好用 " 提供了坚实支撑。

AI 真正融入日常,不仅取决于模型本身有多强,还取决于底层系统是否准备好为它持续供能。

这一代的天玑 9500,正在让这种准备成为现实。

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—    —

点亮星标

科技前沿进展每日见

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 联发科 芯片 艺术 输入法
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论