快科技 4 月 1 日消息,据媒体报道,被业界誉为 "HBM(高带宽内存)之父 " 的韩国学者金正浩指出,AI 计算的主导权正加速从 GPU 向内存转移。
随着人工智能从生成式迈向智能体(Agentic AI)时代,内存正成为制约发展的关键瓶颈。金正浩认为,这一转变的核心在于 " 上下文工程 " 的兴起,AI 需要同时处理海量文档、视频及多模态数据。
为支撑这一趋势,内存带宽与容量需实现最高达 1000 倍的提升,才能保障系统运行的速度与准确性。当输入规模扩大 100 至 1000 倍时,内存需求可能呈指数级增长,最高甚至达到百万倍。
在此背景下,金正浩指出,当前通过堆叠 DRAM 实现超高带宽的 HBM 产品,或难以满足智能体时代的需求。他重点看好 HBF(High Bandwidth Flash,高带宽闪存)技术。
作为一种新型存储方案,HBF 通过堆叠 NAND 闪存替代 DRAM,构建类似 " 巨型书架 " 的长期存储体系,在容量上实现数量级跃升。
金正浩进一步表示,AI 产业的权力格局或将因此发生转移,由 GPU 向内存倾斜。尽管现阶段计算架构仍以 GPU 和 CPU 为核心,但未来的系统将围绕超大容量内存(如 HBM 与 HBF)构建,处理器则更像是嵌入其中的组件。
这一构想已在产业界初现端倪。今年 2 月,SK 海力士在提交至电气与电子工程师学会(IEEE)的论文中提出了 "H3 架构 ",混合配置 HBM 与 HBF。
论文指出,HBF 相比 HBM 带宽相当、容量更大,但访问延迟更长、写入耐久性更差、功耗更高。因此,H3 将 HBF 作为 HBM 的 " 二级扩展 ",HBF 负责存储只读数据,HBM 负责其余数据。
金正浩预计,HBF 工程样品有望在 2027 年前后面世,谷歌、英伟达或 AMD 等厂商最快可能在 2028 年开始采用该技术。围绕 HBF 的竞争或将重演 HBM 时代的格局,三星电子与 SK 海力士有望再度正面交锋。



登录后才可以发布评论哦
打开小程序可以发布评论哦