AI对DRAM和NAND的需求正在以超出产业供给能力的速度膨胀。按当前趋势,这部分需求今年预计将超过内存行业总可寻址市场(TAM)的50%——而据分析师判断,供给瓶颈在2028年之前不太可能得到实质性缓解。

美光科技CEO Sanjay Mehrotra近日接受CNBC采访时直言,AI产业仍处于"早起阶段"(First Innings)。他指出,随着推理规模扩大,token需求将持续攀升,而token生成速度依赖更快、更大容量的内存——"内存已成为客户的战略资产"。他强调,当前面临的核心矛盾不是需求或定价,而是供给本身极度紧张且无法快速扩产。

美光刚刚公布的2026财年Q2业绩佐证了这一判断:公司营收、毛利率、每股收益及自由现金流均创历史新高,Q3预计将再度刷新纪录。

供给缺口:2028年前难见拐点

美光指出,传统服务器与AI服务器的需求均保持强劲,但同时受到DRAM和NAND供应紧张的制约。英国《金融时报》援引分析师观点称,考虑到新建晶圆厂所需的建设周期,供应紧缺局面在2028年之前不太可能缓解。

韩国媒体Global Economic的报道则给出了更具体的量化预期:随着面向NVIDIA Vera Rubin等下一代AI GPU的12层HBM4开始放量,更为谨慎的预测认为到2027年行业可能仅能满足约60%的DRAM需求。这一供需格局将巩固内存厂商的定价权,但硬币的另一面是,若量产进度未达预期,厂商的市场地位同样可能承压。

需求侧的推力仍在加速。Agentic AI工作负载正推动CPU的内存支持规格向400GB扩展——约为当前水平的4倍。NVIDIA Vera Rubin、AMD MI400等下一代AI GPU均将搭载HBM4,在带宽提升的同时大幅扩展容量上限。LPDDR则凭借功耗效率优势,正成为大规模AI部署中的首选方案。

美光的产品应对:HBM4已供货,HBM4E明年量产

面对紧张的供需环境,美光正沿多条产品线推进下一代布局。公司目前已为NVIDIA Vera Rubin平台供应36GB(12-Hi)HBM4 DRAM,现有HBM3工艺预计达到成熟良率。下一代HBM4E内存计划明年开始量产爬坡。

在LPDDR领域,美光近期推出基于LPDDR5X的256GB SOCAMM2方案,可提供最高2TB容量。DDR5方面,公司正为NVIDIA Groq 3 LPX供货,Groq LPU单芯片支持最高12TB容量。

消费端同样感受到供给紧张的传导效应。美光预计PC和智能手机出货量将出现低双位数下滑,主要受供应受限和价格上涨驱动。一个值得关注的趋势信号是:32GB正在成为本地运行Agentic AI工作流的PC标准内存配置。

风险提示及免责条款 市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。