内存危机引发下一场数据战争

2025-09-04
阅读量 1556

据闪德资讯获悉,随着AI工作负载超出传统DRAM的能力,Compute Express Link应运而生,成为内存危机的解决方案。

目前80%至90%的AI计算资源来自推理,而非训练。

支持这些任务所需的运算规模之大令人咋舌。

图片

训练OpenAI的GPT-4估计消耗了50千兆瓦时的电力,足以为数万户家庭供电数天。

将训练中的功耗与推理工作负载所需的能源相结合,当前数据中心基础设施的压力显而易见。

传统架构已无法跟上时代的步伐。

采用专用DRAM和普通NVMe SSD的传统架构成本高昂、功耗高且效率低下,因为会遇到数据管道瓶颈。

对更智能、可扩展且节能的解决方案的需求日益增长。

Compute Express Link (CXL) 应运而生,成为下一代AI应用的颠覆者。

在传统设置中,扩展内存意味着添加更多服务器或CPU插槽来连接更多内存

这种方法存在两个主要问题:

成本禁止,添加服务器会增加硬件成本。

能源效率低下,更多的服务器意味着能源使用量猛增,给可持续发展目标带来巨大压力。

如果没有突破性进展,随着工作负载的增加,数据中心将面临效率低下的困境。

通过将内存与CPU插槽分离,CXL使数据中心能够集成内存池、共享和动态分配功能。

这项创新解决了关键瓶颈,并为可扩展的基础设施奠定了基础,满足人工智能的复杂需求。

CXL主要优势包括:

动态内存池: 

CXL支持将集中式内存资源池化,并在多个设备之间共享。

CPU、GPU和AI加速器现在可以访问统一的内存池,从而确保最佳利用率,并显著提高硬件利用率。

无需过度配置即可实现可扩展性:

传统内存通道受限于CPU架构。

CXL突破了这些限制,无需添加更多物理服务器,即可独立且经济高效地扩展内存

低延迟,助力实时应用: 

CXL的低延迟架构确保设备间通信顺畅。

这对于自主系统和交易算法等人工智能应用至关重要,因为即使是轻微的延迟也会影响性能。

通过效率实现可持续发展:

通过实现更智能的内存分配,由CXL驱动的数据中心整体耗电量更低。

减少对过度配置硬件的需求,从而节省能源,使企业能够在降低成本的同时,实现可持续发展目标。

集成CXL架构可将内存带宽提升高39%,并将AI训练性能提升24%。

利用CXL等创新技术增强基础设施不仅仅是升级,更是企业寻求竞争优势的必要手段。

点击此处关注获取最新资讯!

f328f6db93164f84bb23c090c28e7db.png88c1a0acd98aa6023fcbfa1f2ebf421.png


1.本文整理自网络,如有侵权,请联系删除。

2.所刊内容仅代表作者观点,非闪德资讯立场。

我的评论

登录后评论

最新评论

渠道报价
查看更多

D4/32G-DDR 4

  • 一年
  • 半年
  • 三个月
  • 一个月

微信订阅

APP下载

存储未来,赢得先机

18126200184

Copyright©2008-2025 闪德资讯 版权所有 粤ICP备18080549号-1

粤公网安备 44030402002744号