三易生活 3小时前
如何让AI PC落到实处?英特尔的做法很难被模仿
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

经常关注我们三易生活的朋友可能知道,我们比较早就关注到了 "AI PC" 这个技术话题。而且不同于大多数人对早期 AI PC 就 " 充满期望 " 的态度,我们其实真没少对过去几年里的 "AI PC 行业 ",或是某些具体的产品理念提出不满。

比如我们此前就曾指出,比起 NPU,如今的 CPU 和 GPU 其实都更早就加入了对于 AI 计算的支持,而当前 AI PC 行业在软件适配和宣传上过于注重 NPU,多少就有点 " 单纯为了推新产品 " 的意思。

又比如我们曾指出,一些 PC 厂商在进行市场宣传时,往往过于注重所谓的 " 算力数字(TOPs)"。但当消费者真正买到机器就会发现,那些 " 高 TOPs" 的 NPU 实际上没几个应用程序能够适配。

当然,批评的目的并不是批评本身,而是希望如今的厂商在 "AI PC" 这个课题上能够真正站在消费者的角度去思考,去做一些务实的产品。所以当真的有厂商做出了 " 好东西 " 时,我们自然也会对此感到更加欣慰。

2025 年的 11 月 20 日,也就是在刚刚庆祝完入华 40 周年后,英特尔方面在此次技术创新与产业生态大会期间召开了一场 "AI 新技术和软件创新论坛 ",秀出了他们在 AI PC 方面一些更偏实际,对所有用户都可能更有意义的技术成果。

大家都讲 "AI PC",但英特尔确实更实诚

英特尔做了些什么?在今天的此次活动中,他们先是回顾了 "AI PC" 的发展历程。按照英特尔方面公布的信息,他们将 2023 年年底发布的 Meteor Lake 平台看作了自家 "AI PC" 的起始点,之后便是如今在售的 Arrow Lake 和 Lunar Lake,然后便是已经开始预热、即将正式登场的 Panther Lake。

可能有的朋友看到这张 PPT 会 " 跳脚 " 了,刚刚不是说厂商们把 CPU、GPU、NPU 的算力累加宣传不好么,为什么英特尔 " 明目张胆 " 地这么干了却不批评呢?

原因很简单,因为英特尔真有自研的 OneAPI,他们的 CPU、GPU、NPU 能在 AI 计算里做 " 异构加速 "。不仅如此,英特尔的这套 AI 加速方案甚至还可以进一步扩充,不仅适用于在笔记本电脑平台上发挥全部的算力潜能,而且还可以同时适配台式机的 "CPU+ 独显 "、甚至是企业级的 "CPU+AI 加速卡 " 配置上去。

那么这意味着什么?站在开发者的角度来说,这就代表他们不需要针对不同的英特尔硬件去反复切换开发工具,而是可以用一套解决方案就完成从模型训练、蒸馏,到低算力设备端侧部署的整个流程。

要知道,当前虽然所有的 PC 厂商都在喊 "AI 加速 ",但有些品牌甚至自家 NPU 和自家 GPU 都还做不到共用一套 AI 开发工具。那么在这样的情况下," 平台总算力 " 这个概念自然也就不是一个完全不能喊的口号,而是要看对应的 " 平台 " 是不是真能同时用到全部计算单元的 AI 性能。很显然,英特尔 " 有这个资格 "。

将消费级平台当 " 服务器 " 用?这还真不是噱头

前面所说的还只是一个整体的概念,到了具体的产品实现上,英特尔如今的 AI PC 设计又有哪些不同之处呢?首先需要关注的是架构部分。具体来说,是不同定位产品之间,在架构设计上的一致性和延续性。

比如针对服务器、超算级别的 AI 计算需求,英特尔前不久刚刚发布了 Xe3P GPU 架构,该架构可以视作 Xe3 的 " 高性能独显版本 "。而 Xe3 则 " 恰好 " 是 Panther Lake 平台里,核显的架构设计。

与此同时,在高性能工作站领域,英特尔现在有最大 48GB 显存的 ARC B60 Dual 专业卡可供 AI 开发者使用。而 ARC B60 的架构,也与 Lunar Lake 平台里的 ARC 140V 核显 " 系出同门 "。

除此之外,在当下主流的 Arrow Lake 处理器内部,它所使用的的核显基本也可以认为就是初代 ARC 独显的 " 缩小版本 "。

这意味着什么呢?一方面当然还是会有利于开发者,让他们在进行模型训练和部署时,不用太担心跨平台之间的架构差异问题。更为重要的是,这也使得英特尔能够将一些企业级的最新平台技术,通过驱动更新和行业合作的方式,快速 " 下放 " 给消费级平台,使得终端消费者从中受益。

比如今天英特尔就展示了在 Arrow Lake-H 平台的三项新技术。其一,就是 Arrow Lake 的核显现在支持由用户手动指定、更大容量的共享显存分配。比如当安装了 128GB 内存时,那么用户可以将其中 120GB" 优先分配 " 给核显,从而使其能够运行高达 120B 的本地大模型。

需要注意的是,不同于隔壁的 Strix Halo,英特尔的这个核显内存分配无需进入 BIOS,而且分配完成后的内存实际上依然是动态的。也就是说如果核显用不到 120GB 这么大的 " 共享显存 ",那么它依然可以被正常作为内存使用,不需要担心分配之后内存不够用的问题。

当然,有的朋友会说,不是所有的 Arrow Lake-H 设备都是可以插拔内存的,如果有些笔记本电脑出厂内存容量就焊死了怎么办呢?针对这一点,英特尔联合群联,在消费级平台展示了 "aiDAPTIV+" 技术。

它将模型存储在高速 PCIe 5.0 SSD 上,内存里只保留激活的 MoE 模型。这样一来,就相当于用类似于服务器 " 傲腾内存 " 的办法,解决了消费级平台物理内存不够用、跑不了大规模模型的难题。

甚至针对时下流行的 "AI Box" 超小型 AI 电脑这一市场需求,英特尔也利用 Arrow Lake 拿出了他们自己的解决方案。这些巴掌大小的设备凭借英特尔自家的异构计算体系,能够以几十瓦的功耗提供 99TOPs 的平台算力和 120GB 的 AI 内存池。如果用户还有更大规模的弹性计算需求,英特尔也正在开发基于雷电 5 接口的 " 双机互联 " 方案,即将两台 AI Box 连接在一起,使得其 AI 算力直接翻倍,足以处理高达 235B 的 MoE 模型。

AI PC 到底做得好不好,最终还得看用户体验

当然,可能有的朋友会说,讲了这么多,我知道英特尔现在有异构计算,支持将大内存分配给核显,能让消费级平台得到来自专业工作站、服务器的技术下放了,但这些不都只是对 AI 开发者有利吗,如果只是普通用户,又能从中得到什么好处呢?

还真有。一方面,就在今天的技术展示环节,英特尔不只是 " 秀 " 了自家移动平台上的一些 AI 硬件新特性,同时还在现场展示了包括 AI 小说续写、AI 文档整理、AI 端侧声音克隆在内的一系列解决方案。

这些软件成果的背后,其实就是英特尔已经 " 搞定 " 的一系列端侧模型适配和 AI 工具搭建工作。换句话说,英特尔 " 替 " 开发者们铺平了道路,从而让实际的 AI 应用能够更快地在酷睿 Ultra 系列 PC 上落地,并且不止服务于最新的一代产品,甚至还可以同时造福于一年、甚至两年前的老设备。

另一方面,纵观整个 PC 上游行业,英特尔也不仅仅只关注 AI 开发者,他们对于 AI 软件的市场落地所提供的助力,可能是同类厂商当中最实际的。

就在今年夏季,英特尔就已联合虎踞龙盘,在华硕、荣耀、小米、惠普等主流 PC OEM 品牌的应用商店里,上线了专为酷睿 Ultra 平台适配的 "AI PC 专区 ",大家可以在这些专区下载到已经为英特尔 AI PC 硬件做了充分优化的知识助手、办公软件、娱乐程序、创作工具,其中绝大部分软件都可以实现 " 开箱即用 "、无需再手动配置。

而这毫无疑问便是将 "AI PC" 真正落地到每一个消费者,每一台酷睿 Ultra PC 上的 " 关键一步 "。虽然它的背后可能涉及到英特尔独特的架构设计、涉及到他们自研的 AI 底层驱动、涉及到一系列对上游开发者的照顾和大量合作伙伴之间漫长的技术攻关,但站在普通消费者的角度来说,大家其实只需要知道用英特尔的电脑,是真的会有大量的 "AI 软件 " 实际能用,可以在日常工作生活中发挥助力,这就已经足够了。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 英特尔 gpu 技术创新 lunar
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论