全球的NAND、DRAM资源要被马斯克的 xAI 吸干了

2026-02-24
阅读量 942

马斯克旗下的xAI,正以远超行业预期的激进节奏,全面冲刺通用人工智能(AGI),疯狂吸纳全先进芯片和高端存储资源


2025 年初,马斯克公开提出“两年内实现 AGI”的目标,为了兑现这一承诺,xAI 正将野心迅速转化为对算力基础设施前所未有的投入。


其战略目标非常清晰:最快在 2026 年实现 AGI,并在未来三年内全面超越主要竞争对手。


在算力布局上马斯克表示,xAI 位于田纳西州孟菲斯的 Colossus 超级计算中心,目前 GPU 搭载量已提升至 23 万颗,其中包括 3 万颗英伟达 GB200 芯片。


与此同时,xAI 正在建设第二座 Colossus 数据中心,规划容纳 55 万颗 GPU,主要由 GB200 与更先进的 GB300 芯片 组成。

图片

截至目前,xAI 已部署 GPU 总量超过 45 万颗,并计划在 2026 年第二季度将这一规模翻倍至 90 万颗。


这一扩张速度,使 xAI 成为全球算力增长最快的 AI 公司之一,也将其推上与 OpenAI、谷歌、微软同一量级的竞争舞台。





采购狂潮的来临




在这场算力竞赛中,xAI的采购策略异常激进且目标明确。


首先,xAI跳过了市场上较为普遍的H200等上一代产品,直接将资源集中于采购搭载最新Blackwell架构的GB200和更先进的GB300芯片。


2025年的一项引人注目的交易是,xAI与戴尔签订价值约50亿美元的GB200服务器大单。这些服务器以GB200 NVL72机柜形式,2025年11月前完成出货


这一采购规模在业内引起了震动。根据英伟达官方配置,其采购的GB200 NVL72 机柜集成 72 颗 Blackwell GPU,单颗搭载容量192GB,单柜搭载最高约13.5TB HBM3e 高速显存。


下一代GB300 平台采用12 颗 24GB 的 HBM3e 堆叠方案,单颗 GPU 显存容量高达 288GB,相比 GB200 再提升 50%。


意味着,当55万个节点(超过110万个GPU)的“Colossus II”集群建成时,仅GPU自带的高速显存(HBM)总量就将是一个天文数字。


根据埃隆·马斯克于2026年1月6日在X上的声明,xAI已购买了五台额外的380MW天然气涡轮机,其中前两台将于2026年底交付。


这将支持相当于超过60万块Nvidia GB200 GPU的巨型集群同时供电


更令人侧目的是,xAI与英伟达之间的紧密合作关系——通过引入英伟达作为战略投资者,xAI为自己在芯片供应极度紧张的市场中获得了宝贵的优先权。




存储革命的上演



伴随着GPU采购狂潮的,是对存储产品的巨大需求。与对特定GPU型号的选择性不同,xAI对存储的需求是全面且迫切的。


大模型训练需要处理海量的文本、图像等多模态数据,这些数据本身就构成了庞大的存储需求。


图片


一个简单的对比是,传统数据中心可能只需几PB的存储空间,而一个前沿AI模型的训练数据集可能就需要几十甚至上百PB的容量。


xAI等前沿AI公司正在推动数据中心存储架构的变革。最新的分层存储技术将最高频访问的数据放在GPU显存中,而将海量的低频数据存储在大容量的NVMe SSD硬盘上。


这种架构转变正在引爆企业级SSD的需求。一个直观的例子是,一个拥有1750亿参数的AI模型,其训练中的一个“检查点”文件就可能达到3TB


要保证训练不中断,存储系统必须能在极短的时间内保存如此巨大的文件,这意味着需要高达100GB/s的持续写入带宽。


据存储原厂消息2026年的SSD产量已经被预定一空,供应紧张的局面可能持续到2027年。





行业影响几何?


晶圆


xAI 的激进扩张,已经在行业里掀起了连锁反应。


最直接的冲击,体现在GPU 抢购战上。xAI 的采购规模之大,让原本就紧张的高端 GPU供应 直接雪上加霜。


业内甚至开始担心:xAI 会不会正在制造一个“算力黑洞”,把市场上本就稀缺的先进芯片和高端存储资源,源源不断地吸走。


这还不只是几十万块顶级GPU 的问题。更夸张的是,每一批 GPU 背后,都要配套数百 PB 级别的高速存储系统,对 HBM、企业级 SSD、网络设备、电力和散热的需求,几乎是成倍放大。


也正因此,一些行业专家开始提出警告:如此极端的资源集中,可能正在改变整个AI 生态结构。算力和存储越来越向头部公司集中,中小型研究机构和创业团队,未来获取高性能计算资源的门槛,可能会被进一步拉高。


图片


如果把xAI 和其他巨头放在一起对比,这种“激进”就更加明显。


比如,OpenAI 正在规划的首个“星际之门”超级数据中心,预计部署 约 6.4 万块 GB200 芯片,已经堪称超级工程。


但 xAI 规划中的 “Colossus II” 数据中心,目标 GPU 数量几乎是它的 9 倍,规模直接拉开一个数量级。


这种夸张的差距,反映了马斯克对AGI 竞赛的独特理解:在他看来,决定胜负的核心变量,只有一个——算力规模。


如果xAI 按计划推进,其影响将远不止“买光 GPU”这么简单。它可能会在多个层面重塑整个 AI 行业:


  • 硬件采购模式被彻底改写

  • 存储系统架构向超大规模集中演进

  • 能源消耗和数据中心建设标准被重新定义

  • 研究机构与算力资源之间的关系发生根本性变化


随着越来越多的GB200、GB300 服务器上线,这些设备将接入 xAI 正在构建的超大规模算力网络。每多装上一块 GPU,都是在为 xAI 通往 AGI 的道路,再添一块“发动机”。


按照规划,未来几个月,随着GB300 服务器陆续交付,xAI 的算力集群将持续扩张,向 90 万块 GPU 的目标稳步逼近。


整个AI 行业,正在屏息围观这场前所未有的豪赌。而算力资源的流向,也正在悄然改写未来AI 研究的格局。


点击此处关注获取最新资讯!

f328f6db93164f84bb23c090c28e7db.png88c1a0acd98aa6023fcbfa1f2ebf421.png


1.本文整理自网络,如有侵权,请联系删除。

2.所刊内容仅代表作者观点,非闪德资讯立场。

我的评论

登录后评论

最新评论

渠道报价
查看更多

D4/32G-DDR 4

  • 一年
  • 半年
  • 三个月
  • 一个月

微信订阅

APP下载

存储未来,赢得先机

18126200184

Copyright©2008-2026 闪德资讯 版权所有 粤ICP备18080549号-1

粤公网安备 44030402002744号