突破存储瓶颈,AI性能的展望

2025-06-24
阅读量 1272

据闪德资讯获悉,随着AI的快速发展,从边缘AI (物联网设备)到为深度学习(Deep Learning)模型提供动力的大型数据中心,对更高性能、更低功耗和高效存储解决方案的需求跨越了广泛的应用领域。

尽管AI发展迅速,但存储器仍然是AI技术发展致命弱点。

如果技术没有突破,AI性能提升将停滞不前。

传统的存储架构难以跟上日益成长的AI工作负载,因此必须重新思考下一代AI系统的技术。

无论是高能效的边缘AI应用,还是高性能的数据中心AI训练,AI工作负载都需要即时处理大量数据。

图片

然而,传统的存储技术,如SRAM、LPDDR DRAM和HBM,都存在重大局限性。

SRAM速度快,但漏电功耗高,对大型千百万位元组离散式存储芯片而言可扩展性差;

LPDDR容量更大,但存在延迟和能效低的问题;

HBM频宽高,但功耗较大,影响整体系统效率。

AI存储最紧迫的挑战之一是DRAM的功耗。由于DRAM耗电量占数据中心总耗电量的30%以上,因此提高存储效率对于永续的AI运算至关重要。

造成这种高耗电量的因素有几个:

能源消耗巨大:随着AI工作负载需要更大的容量,DRAM功耗也相应增加;

背景功耗:功耗的很大一部分来自背景功耗,包括保持数据完整性所需的刷新周期;

取决于工作负载的能耗:DRAM实际功耗根据工作负载强度而波动,存取越频繁,功耗越高。

这种不断成长的能源需求对永续的AI运算构成了重大挑战,因此探索既能降低功耗又能保持高性能的新解决方案至关重要。

随着AI模型,尤其是LLM规模不断扩大,训练和推理对存储需求变得更加极端。理想的AI存储应具有以下特点:

更快的读/写延迟:与即时AI处理所需的SRAM速度相当或超过该速度;

比HBM更高的频宽:跟上AI工作负载所需的大量资料;

超低功耗:最好是非挥发性的,以减轻边缘和数据中心AI的能源负担;

可扩展性和可制造性:确保更高的密度和具有成本效益的大规模生产;

成本效益:对于新技术而言,成本结构始终是一个挑战。

需要一个强有力的总体拥有成本(TCO)论据,并不断努力降低硅晶圆成本,无论是通过缩小存储单元尺寸实现长期可扩展性,还是通过开发存储单元堆叠技术。

若能突破瓶颈,AI技术的效能将有望进一步提升。

为了摆脱这些限制,新的存储架构必须提供高速、高频宽和高能效的解决方案。一些新兴技术正在引领这一变革:

磁阻RAM (MRAM)、电阻式RAM (RRAM)、3D DRAM和HBM演进、存储内运算(CIM)和存储内处理(PIM)。

除了对创新技术的期望之外,其他关键因素在AI性能提升中也发挥着至关重要的作用:

生态系统协调、更高的芯片堆叠技术、存储内运算提高AI效率、优化芯片布局的SoC能力。

点击此处关注获取最新资讯!

f328f6db93164f84bb23c090c28e7db.png88c1a0acd98aa6023fcbfa1f2ebf421.png


1.本文整理自网络,如有侵权,请联系删除。

2.所刊内容仅代表作者观点,非闪德资讯立场。

我的评论

登录后评论

最新评论

渠道报价
查看更多

D4/32G-DDR 4

  • 一年
  • 半年
  • 三个月
  • 一个月

微信订阅

APP下载

存储未来,赢得先机

18126200184

Copyright©2008-2025 闪德资讯 版权所有 粤ICP备18080549号-1

粤公网安备 44030402002744号