在生成式AI掀起的全球算力竞赛中,存储已从配角跃升为AI基础设施的核心。
SK海力士、三星、美光三大厂高层首次同台演讲,聚焦HBM在能效、封装与新架构上的挑战与机会。
SK海力士HBM事业规划副总裁Joonyong Choi表示,随着AI训练与推理需求暴增,HBM已不只是“配角”,而是系统效能的关键。
以单一AI任务为例,HBM的功耗占比已从12%攀升至18%以上,未来将更高。
若HBM功耗改善10%,整体系统功耗便可下降2%;若改善提升至50%,相当于数据中心所需服务器之功耗可减少10%。
SK海力士最新推出的HBM4,容量达36GB、频宽超过2TB/s,并针对AI工作负载优化能效,未来更将推进定制化HBM,与芯片设计厂紧密合作,打造专属架构。
Joonyong Choi是SK海力士在HBM业务最年轻的高管,以前在三星电子工作,随后加入SK海力士。
三星存储产品规划副总裁Jangseok Choi以AI生成影像为开场,点出AI带来的庞大算力需求,也带来数据中心能源与散热挑战。
昂贵GPU经常因存储频宽不足而闲置,三星也将推动定制设计的HBM,并以混合铜键合(Hybrid Copper Bonding)取代传统封装,提升堆叠密度与散热效率,支撑AI高功耗环境。
此外说明PIM(processor in memory)与PNM(Processing Near Memory)更将是下一步突破。
部分运算可下放至存储或周边元件,降低延迟并提升能效。
实验显示,在LPDDR6与HBM中导入PIM,推理效能可提升逾2倍、能耗减半。
美光技术官Dr. Nirmal Ramaswamy表示,AI模型参数正迈向万亿级,存储需求逼近物理极限。
传统DRAM在电容结构与感测上已遇到瓶颈,美光正推进3D DRAM技术蓝图,通过混合铜键合与封装方式突破限制,长远来看,美光也在探索新兴存储,并认为FeFET最具潜力,因效能接近DRAM且具备成本优势,有望成为CXL存储器扩充模组的选择。
若功耗表现缺乏突破,美国数据中心在2030年恐将消耗全国约10%的电力,其中AI占比相当多,即要让AI持续扩张,必须大幅降低能耗。
整体来看,存储产品不再只是存储,而是驱动AI效能与能效的核心基础。
从定制化的HBM、3D DRAM蓝图,到先进封装,都显示下一阶段AI竞赛除了GPU,更会关注如何借着存储器的技术创新,支撑未来的AI基础设施。
点击此处关注,获取最新资讯!






我的评论
最新评论