驱动之家 15小时前
戴尔CEO:AI内存需求将暴增625倍!买方彻底没了议价权
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

快科技 4 月 10 日消息,据报道,戴尔创始人兼 CEO Michael Dell 近日发表了对 AI 内存市场前景的判断,预计到 2028 年,全球 AI 内存总需求将达到 2023 年水平的 625 倍。

这一惊人数字背后是两条增长曲线的叠加,Michael Dell 指出,单颗 AI 加速器的内存容量和全球加速器部署规模正在同步扩张。

NVIDIA 2023 年发布的 H100 搭载 80GB HBM 内存,预计到 2028 年,单颗 AI 加速器所需的内存容量将大幅跃升至 2TB,实现约 25 倍的增长。

与此同时,全球数据中心内 AI 加速器的部署总量预计也将扩大约 25 倍,两者相乘,总内存需求便达到了 625 倍的量级。

从 NVIDIA 产品的演进路径也能看出这一趋势:H100(80GB HBM)、H200(141GB HBM)、B200(192GB HBM)、B300(288GB HBM)、Vera Rubin(288GB HBM4 + 1536GB SOCAMM = 1824GB)。

SOCAMM 是由 NVIDIA 主导、联合三星、SK 海力士、美光等厂商共同开发的模块化内存标准,专门面向 AI 服务器和 AI PC 的工作负载优化。

与 HBM 不同,SOCAMM 承担的是 CPU 侧的大容量内存角色,在 Vera Rubin 平台上单颗即可提供 1536GB 容量,直接将单加速器系统的内存天花板推到了接近 2TB。

Michael Dell 还强调,内存供给的扩张需要数年时间,但当前 AI 基础设施的需求并未显示出任何放缓的迹象," 我们仍处于技术导入的早期阶段 "。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 戴尔 nvidia 海力士 创始人
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论