全天候科技 前天
海力士携手英特尔轰击英伟达帝国?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

作者:周源 / 华尔街见闻

最近业界有消息称,SK 海力士有望与英特尔就 HBM4(第六代)内存供应展开合作,这是否意味着英特尔开始正式走上 AI 加速卡市场竞争角斗场?

在算力需求呈指数级增长的当下,内存与芯片的协同关系,已从传统的硬件配套,演变为决定 AI 系统竞争力的核心要素。

无论是大型数据中心的 AI 模型训练,还是边缘设备的实时推理,内存性能都成为制约系统效率的关键变量,而 HBM4 与 Jaguar Shores 的结合,符合行业发展趋势。

AI 芯片的性能瓶颈,已从单纯的计算能力,扩展到数据传输环节。

以 Transformer 架构的大语言模型为例,训练过程中参数更新产生的海量数据,需频繁在内存与处理器间交互,传统 DDR 内存的串行传输模式,导致数据等待时间占比超过 30%。

这种计算资源闲置现象在训练千亿参数模型时尤为明显,往往造成单卡日均有效计算时长不足。

HBM4 通过 2048-bit 接口实现的并行数据传输,将内存带宽提升至前代产品 1.5 倍 +,这种架构革新直接解决了 AI 芯片 " 计算快、传输慢 " 的矛盾。

在图像生成领域,采用 HBM4 内存的 AI 加速器,处理 512x512 分辨率图像的生成速度,比使用 HBM3 快约 40%;在自动驾驶算法的实时推理中,车辆传感器采集的每秒 30GB 数据能通过 HBM4 实现无延迟传输,为决策系统争取到宝贵的反应时间。

更关键的是 HBM4 的物理层优化,采用了 CoWoS 封装技术,将多个 DRAM 芯片垂直堆叠并通过硅通孔(TSV)互联,数据传输路径由此极大缩短。

这种物理结构的改进,配合优化后的缓存一致性协议,显著降低了内存延迟,让 AI 芯片在处理时序数据时的响应速度提升。

在金融高频交易的 AI 预测模型中,这种低延迟特性可将数据处理响应时间压缩至微秒级,为交易决策提供更及时的支持。

对于 SK 海力士而言,此次合作是其 HBM 技术商业化的重要节点。

HBM4 面临三星、美光的激烈竞争。通过与英特尔绑定,SK 海力士不仅能提前验证 HBM4 在复杂 AI 场景下的适配性,还能借助英特尔庞大的服务器客户资源,建立规模化生产优势。

目前 SK 海力士在韩国利川的 HBM4 生产线已启动二期扩建,预计 2026 年量产,总体产能将达到 30 万片晶圆;目前还不清楚与英特尔的合作订单,将占多少比例的产能。

英特尔的需求,整体上看,应当更具战略紧迫性。

在 AI 芯片市场,英伟达凭借 CUDA 生态和 H100/H200 系列产品占据 70%+ 份额(数据来源:Mercury Research)。

Jaguar Shores 作为英特尔新一代 AI 加速器,亟需通过硬件差异化实现破局。

HBM4 内存的引入,使 Jaguar Shores 在内存带宽指标上首次达到行业领先水平,为其切入云服务商定制化 AI 服务器市场提供关键筹码。

英特尔数据中心事业部已与微软 Azure 达成初步协议,计划在 2026 年部署搭载 Jaguar Shores 和 HBM4 的 AI 服务器集群,用于支持大语言模型的分布式训练。

在内存市场,此次合作加剧了 HBM 领域的 " 三国杀 " 局面。

三星电子已宣布将在 2025 年底前量产 HBM4,采用了 12 层堆叠技术,比 SK 海力士多 2 层,宣称带宽可再提升 10%;美光也计划在 2026 年实现技术突破,重点优化 HBM4 的功耗表现,目标将能效比提升 25%。

SK 海力士与英特尔的绑定,可能促使三星加速与 AMD 的合作,双方已在研发基于 HBM4 的 GPU 原型机;美光则与高通联手,探索 HBM4 在移动 AI 芯片上的应用,试图开辟新的市场空间。

这样的竞争烈度,可能会推动 HBM 技术迭代周期从两年缩短至一年内,2027 年 HBM5 的研发可能提前启动。

AI 芯片市场的竞争维度正在发生变化。

英伟达的优势在于完整的软硬件生态,但随着 HBM4 等通用技术的普及,其他厂商得以在硬件性能上缩小差距。

数据中心运营商已开始尝试多厂商 AI 芯片混合部署方案,谷歌 TPU(张量处理器:Tensor Processing Unit,定制 AI 加速卡,属于 ASIC 类型)与英伟达 GPU 的混合集群已在部分业务中应用。

英特尔若能通过 Jaguar Shores+HBM4 组合证明性价比优势,有望打破英伟达在超大规模数据中心的垄断局面。

目前,亚马逊 AWS 已表示将对 Jaguar Shores 做为期 6 个月的性能测试,测试内容涵盖模型训练速度、能耗比、兼容性等多项关键指标。

尽管 HBM4 能显著提升 AI 芯片性能,但仍面临发展瓶颈:其一,垂直堆叠带来的散热问题,HBM4 芯片组工作时的热密度达 150W/cm ²,超出传统风冷散热能力,英特尔为此专门开发了浸没式液冷方案,通过氟化液直接接触芯片表面,散热效率比冷板式液冷大幅提高。

其二,成本居高不下,单颗 HBM4 芯片的制造成本约为 HBM3E 的 1.3 倍(数据来源:TrendForce),原因是因为 I/O 数量从 1024 变为 2048,芯片设计复杂度加剧,晶圆体积变大,且基础芯片变为逻辑芯片,同时还采用了更先进的制程生产逻辑芯片。

对于英特尔而言,获得 HBM4 只是第一步。

如何通过软件优化(如开发专用内存调度算法)、散热创新(如液冷一体化设计),将硬件性能转化为实际应用优势,才是决定 Jaguar Shores 市场成败的关键,也是英特尔能否真正取得 AI 加速卡市场竞争门票的最好注脚。

英特尔软件团队已开发出基于动态内存分区的调度算法,可根据不同 AI 任务的内存需求自动分配带宽资源,在测试中提升了 BERT(Bidirectional Encoder Representations from Transformers)模型的训练效率。

SK 海力士同样需要与更多芯片厂商合作,推动 HBM4 成为行业标准,避免陷入 " 技术先进但生态孤立 " 困境。

目前,SK 海力士已与台积电达成合作,将 HBM4 集成到 CoWoS 封装的参考设计中,降低其他芯片厂商的适配难度。

SK 海力士与英特尔的 HBM4 合作,不仅关乎内存与芯片的性能提升,更预示着未来 AI 硬件竞争将从单一技术比拼,转向生态构建与产业链整合的全方位较量。

这场合作的最终成效,将在未来 2-3 年 AI 芯片市场的洗牌中得到验证,而其影响也将延伸至整个 AI 产业的技术路径选择与发展节奏。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

英特尔 ai ai芯片 英伟达 海力士
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论