当地时间6月13日,AMD举办了“AMD数据中心与人工智能技术首映会”。发布了Instinct MI300系列、第四代EPYC(霄龙)处理器等AI/数据中心相关产品。
万众瞩目的Instinct MI300系列产品主要包括MI300A、MI300X两个版本,以及集合了8个MI300X的Instinct Platform。针对MI300A,苏姿丰声称。这是全球首个为AI和HPC(高性能计算)打造的APU加速卡,拥有13个小芯片,总共包含1460亿个晶体管,24个Zen 4 CPU核心,1个CDNA 3图形引擎和128GB HBM3内存。
MI300X则是AMD针对大语言模型优化的版本,该产品的晶体管数量达到1530亿个,内存达到了192GB,内存带宽为5.2TB/s,Infinity Fabric带宽为896GB/s。对比英伟达的H100,MI300X提供的HBM(高带宽内存)密度约为H100的2.4倍,HBM带宽是1.6倍。
苏姿丰表示,随着模型参数规模越来越大,就需要更多的GPU来运行。而随着AMD芯片内存的增加,开发人员将不再需要那么多数量的GPU,能够为用户节省成本。此外,她还透露,MI300X将于今年第三季度向一些客户提供样品,并于第四季度量产。
此外,AMD还发布了“AMD Instinct Platform”,集合了8个MI300X,可提供总计1.5TB的HBM3内存。对标英伟达的CUDA,AMD也介绍了自身的芯片软件“ROCm”。
“在构建一个强大的软件堆栈方面,我们已经取得了巨大的进步。这个软件堆栈与模型、库、框架和工具的开放生态系统相兼容。”AMD总裁Victor Peng表示。
数据中心产品方面,AMD推出第四代EPYC(霄龙)处理器,代号为“Bergamo”。据介绍,Bergamo芯片目前正在向大型云计算客户批量出货。
苏姿丰还指出,数据中心人工智能加速器的潜在市场总额将从今年的300亿美元增长到2027年的1500亿美元以上。
MI300X能否与H100一较高下?
对于本次发布会,股民似乎并不买账。截至6月13日美股收盘,AMD美股股价当日下跌3.61%,而同行英伟达则收涨3.90%,市值首次收于1万亿美元关口上方。
Cambrian-AI Research LLC的首席分析师Karl Freund在《福布斯》杂志的最新报道中明确指出,与英伟达的H100相比。MI300X面临着一些挑战。
首先,英伟达H100已满载出货。在AI产业里,英伟达还具有最大的软件生态系统和最多的研究人员。而MI300X尚处于“襁褓之中”,AMD的软件生态也没有那么完善。并且,AMD还未公开任何基准测试,训练和运行AI大模型不仅仅取决于GPU性能,系统设计也尤为重要。
华泰证券也曾表示,AMD对英伟达市场份额的挑战并非一蹴而就。一方面,英伟达GPU芯片的算力壁垒以及AI训练端的深入布局一时难以撼动,另一方面,AMD的软件生态也限制其与客户系统的融合及渗透应用场景。
其次,虽然MI300X的内存达到了192GB,但Karl Freund认为,英伟达也将提供具备相同内存规格的产品,因此这不会成为绝对优势。Semi Analysis的分析师还指出,AMD在与英伟达的H100对比时,不会有显著的成本优势,因为高密度的HBM价格昂贵。
最关键的问题在于,MI300并不具备H100所拥有的Transformer Engine。Transformer Engine能够用于加速Transformer模型,以在AI的训练和推理中以较低的内存利用率提供更好的性能。
“如果训练一个新的模型需要数千个GPU,并花费一年的时间,那会有人会愿意多花费2-3年或者投入3倍数量的GPU吗?”Cambrian-AI Research LLC的首席分析师Karl Freund表示,从性能表现上,Transformer Engine能够让大模型实现三倍的性能表达。
但毫无疑问的是,MI300X是对于英伟达H100的有力竞争者。Karl Freund表示,MI300X将成为除了英伟达H100以外的“第二选择”,且微软、谷歌等硅谷大厂需要英伟达的替代品,AMD或将给出客户一些无法拒绝的条件。但短期内,英伟达的“AI王座”仍难撼动。
本文源自金融界
相关教程
2024-09-02
2023-06-13
2023-07-13
2023-10-26
2024-06-09
2024-01-23
2024-09-29
2023-03-17
2023-04-27
2024-05-02
2024-02-15
2023-05-25
2024-10-23
2024-10-22
2024-10-22
2024-10-21