AMD希望人们记住,Nvidia并不是唯一一家销售人工智能芯片的公司。
它宣布推出适用于运行大型语言模型(LLM)的新加速器和处理器。
这个系列本该在2023年6月推出,但今天才正式发布。
AMD推出了Instinct MI300X加速器和Instinct M1300A加速处理单元 (APU),该公司表示,它们可用于训练和运行大模型。AMD的APU中的核心数量比NVIDIA Grace Hopper等产品要少,但集成度却是另一个级别。也许领先几个级别。
AMD 的 APU 中的核心数量比 NVIDIA Grace Hopper 等产品要少,但集成度却是另一个级别。也许领先几个级别。
MI300X是专为与NVIDIA H100正面较量而设计的GPU型号。内存容量是H100的2.4倍,内存带宽是H100的1.6倍。配备141GB HBM3e的NVIDIA H200将于明年推出。
该公司表示,MI300X的内存容量是之前M1250X版本的1.5倍。MI300X采用HBM3内存,容量最高192GB,比前代MI250X(128 GB)高50%。该内存将提供高达5.3TB/S的带宽和896 GB/S的 Infinity Fabric带宽。
这两款新产品都比前代产品拥有更好的内存容量和更高的能效。
这是128通道交错HBM3存储器接口。
AMD还拥有256MB Infinity Cache,峰值带宽为17TB/s。
AMD还必须将数据从一个小芯片转移到另一个小芯片。
AMD正在展示带宽,并且它有诸如无限缓存之类的东西来稍微隐藏这一点,但是每当遍历小芯片架构时就会出现延迟。
AMD首席执行官苏姿丰 (Lisa Su) 表示:“大模型的规模和复杂性不断增加,需要大量内存和计算。我们知道 GPU 的可用性是人工智能采用的最重要的驱动因素。”
MI300X“是世界上性能最高的加速器”。MI300X在训练LLM方面与Nvidia的H100芯片相当,但在推理方面表现更好——与Meta的Llama 2(一个 700亿参数的LLM)一起使用时,比 H100好1.4倍。
AMD与Microsoft合作,将MI300X放入其Azure虚拟机中。Meta宣布将在其数据中心部署MI300处理器。
AMD还宣布了其Ryzen处理器的最新成员Ryzen 8040,它可以将更多原生AI功能引入移动设备。8040系列的AI处理性能是之前型号的1.6倍,并集成了神经处理单元(NPU)。
Ryzen 8040将不仅限于人工智能处理,因为它声称与英特尔芯片等竞争产品相比,视频编辑速度将提高65%,游戏速度将提高77%。
AMD预计宏碁、华硕、戴尔、惠普、联想和Razer等制造商将在2024年第一季度发布集成 Ryzen 8040芯片的产品。
下一代Strix Point NPU将于2024年发布。
点击此处关注,获取最新资讯!
我的评论
最新评论