AI大模型推动存储需求爆发

2025-10-15
阅读量 1237

据闪德资讯获悉,AI大语言模型的推理应用全面扩张,全球存储器市场正进入前所未有的爆发阶段。

报告显示,以OpenAI的GPT-5模型为例,推理过程对HBM、DRAM和NAND产生的需求,将足以推动一波存储器超级周期。

AI应用正从训练阶段向推理阶段转变,改变了存储器的使用结构。

AI服务器通常采用三层存储器架构,HBM直接集成在GPU封装内部,主要负责实时高速的数据交换。

DRAM承担模型加载、临时存储及缓存扩展的任务。

NAND Flash主要用于模型权重加载、键值(KV)缓存溢出处理及检索式生成查询。

图片

报告强调,AI推理过程中,对存储器的高带宽和大容量形成了双重压力。

按照全球用户每秒共生成2400万个tokens计算,仅GPT-5的需求,就相当于全球DRAM供应量25%、NAND供应量22%。

若2026年tokens生成量进一步翻倍,需求占比将分别提升至43%和39%,意味着AI推理产生的流量,足以消化全球存储器的新增产能。

受推理大模型推动,存储器需求年增长率超过100%,市场会出现明显的供需缺口。

点击此处关注获取最新资讯!

f328f6db93164f84bb23c090c28e7db.png88c1a0acd98aa6023fcbfa1f2ebf421.png


1.本文整理自网络,如有侵权,请联系删除。

2.所刊内容仅代表作者观点,非闪德资讯立场。

我的评论

登录后评论

最新评论

渠道报价
查看更多

D4/32G-DDR 4

  • 一年
  • 半年
  • 三个月
  • 一个月

微信订阅

APP下载

存储未来,赢得先机

18126200184

Copyright©2008-2025 闪德资讯 版权所有 粤ICP备18080549号-1

粤公网安备 44030402002744号