2023年高阶AI服务器出货达17万台

2023-11-01
阅读量 1126

生成式AI与大型语言模型(LLM)相关需求爆发,吸引包括大型云端业者、主要服务器品牌商皆加入AI服务器军备竞赛,并将采购重点集中于以采购HBM为主的高阶AI服务器。

由于封装HBM所需CoWoS产能不足。机构认为2023年高阶AI服务器需求与供给将有35%以上的落差,但预估出货量仍将增加5倍,达17.2万台

图片

机构预期,2023年全球主要云端业者与品牌高阶AI服务器出货量将有8成以上集中于前五大业者,其中,注资Open AI ChatGPT并大量投入生成式AI云服务的微软,直接通过代工厂生产的高阶AI服务器出货将排名第一;长期投入生成式AI也掌握关键技术的Google以投入自家研发的TPU (Tensor Processing Unit)做为主攻的高阶AI服务器机种,通过代工厂的产量将排名第二;最积极部署开源LLM模型的Meta出货将居第三。

亚马逊投入脚步较慢,但也积极与第三方业者合作,预期通过代工厂出货排名第四。美国超微、戴尔、英伟达及慧与(HPE)等品牌业者出货则紧追在大型业者之后。

高阶AI服务器所采取加速器种类方面,预期2023年NVIDIA HGX GPU系列将占近8成,其中,H100 HGX出货将略多于A100 HGX;TPU因Google积极采用,占比将超过1成,其他则主要为PCIe版的NVIDIA 100系列,及少量的NVIDIA GH200与AMD、英特尔等业者的高阶GPU。

高阶AI服务器代工厂出货方面,预期英业达与美商ZT Systems分别为L6与L10~L12制造的最大赢家,英业达掌握多个大型云端业者及品牌商订单,2023年占L6比重将近6成;ZT Systems则因早期即与大型云端业者及相关技术提供者合作,具备大型GPU丛集系统整合技术优势,预期其L10~L12占比将近5成,而台厂中则以广达在L10~L12布局最为积极。

点击此处关注获取最新资讯!

f328f6db93164f84bb23c090c28e7db.png88c1a0acd98aa6023fcbfa1f2ebf421.png


1.本文整理自网络,如有侵权,请联系删除。

2.所刊内容仅代表作者观点,非闪德资讯立场。

我的评论

登录后评论

最新评论

渠道报价
查看更多

D4/32G-DDR 4

  • 一年
  • 半年
  • 三个月
  • 一个月

微信订阅

APP下载

存储未来,赢得先机

18126200184

Copyright©2008-2024 闪德资讯 版权所有 粤ICP备18080549号-1

粤公网安备 44030402002744号