AI 对 DRAM 和 NAND 的需求正在以超出产业供给能力的速度膨胀。按当前趋势,这部分需求今年预计将超过内存行业总可寻址市场(TAM)的 50% ——而据分析师判断,供给瓶颈在 2028 年之前不太可能得到实质性缓解。
美光科技 CEO Sanjay Mehrotra 近日接受 CNBC 采访时直言,AI 产业仍处于 " 早起阶段 "(First Innings)。他指出,随着推理规模扩大,token 需求将持续攀升,而 token 生成速度依赖更快、更大容量的内存—— " 内存已成为客户的战略资产 "。他强调,当前面临的核心矛盾不是需求或定价,而是供给本身极度紧张且无法快速扩产。
美光刚刚公布的 2026 财年 Q2 业绩佐证了这一判断:公司营收、毛利率、每股收益及自由现金流均创历史新高,Q3 预计将再度刷新纪录。
供给缺口:2028 年前难见拐点
美光指出,传统服务器与 AI 服务器的需求均保持强劲,但同时受到 DRAM 和 NAND 供应紧张的制约。英国《金融时报》援引分析师观点称,考虑到新建晶圆厂所需的建设周期,供应紧缺局面在 2028 年之前不太可能缓解。
韩国媒体 Global Economic 的报道则给出了更具体的量化预期:随着面向 NVIDIA Vera Rubin 等下一代 AI GPU 的 12 层 HBM4 开始放量,更为谨慎的预测认为到 2027 年行业可能仅能满足约 60% 的 DRAM 需求。这一供需格局将巩固内存厂商的定价权,但硬币的另一面是,若量产进度未达预期,厂商的市场地位同样可能承压。
需求侧的推力仍在加速。Agentic AI 工作负载正推动 CPU 的内存支持规格向 400GB 扩展——约为当前水平的 4 倍。NVIDIA Vera Rubin、AMD MI400 等下一代 AI GPU 均将搭载 HBM4,在带宽提升的同时大幅扩展容量上限。LPDDR 则凭借功耗效率优势,正成为大规模 AI 部署中的首选方案。
美光的产品应对:HBM4 已供货,HBM4E 明年量产
面对紧张的供需环境,美光正沿多条产品线推进下一代布局。公司目前已为 NVIDIA Vera Rubin 平台供应 36GB(12-Hi)HBM4 DRAM,现有 HBM3 工艺预计达到成熟良率。下一代 HBM4E 内存计划明年开始量产爬坡。
在 LPDDR 领域,美光近期推出基于 LPDDR5X 的 256GB SOCAMM2 方案,可提供最高 2TB 容量。DDR5 方面,公司正为 NVIDIA Groq 3 LPX 供货,Groq LPU 单芯片支持最高 12TB 容量。
消费端同样感受到供给紧张的传导效应。美光预计 PC 和智能手机出货量将出现低双位数下滑,主要受供应受限和价格上涨驱动。一个值得关注的趋势信号是:32GB 正在成为本地运行 Agentic AI 工作流的 PC 标准内存配置。


登录后才可以发布评论哦
打开小程序可以发布评论哦