Meta、OpenAI和微软在本周三举行的AMD投资者大会上,表示将使用AMD最新的人工智能芯片Instinct MI300X。此举表明,科技界正在积极寻求昂贵的英伟达GPU的替代品。
MI300X被业界寄予厚望,毕竟“天下苦英伟达久矣”,后者的旗舰GPU不仅价格高昂,而且供货数量也相当有限。如果MI300X能够得到大规模采用,有望降低开发人工智能模型的成本,对英伟达形成竞争压力。
比英伟达的GPU快多少?
AMD表示,MI300X基于全新架构,性能有着显著的提升。它的最大特点是拥有192GB的尖端高性能内存,即HBM3,这种内存传输数据的速度更快,可以容纳更大的人工智能模型。
苏姿丰直接将MI300X及其构建的系统与英伟达的(上代)旗舰GPU H100进行了比较。
就基础规格而言,MI300X的浮点运算速度比H100高30%,内存带宽比H100高60%,内存容量更是H100的两倍以上。
当然,MI300X对标的更多是英伟达最新的GPU H200,虽然规格上同样领先,但MI300X对H200的优势就没那么大了,内存带宽仅比后者多出个位数,容量比后者大近40%。
苏姿丰认为:
“这种性能可以直接转化为更好的用户体验,当你向模型提问时,你希望它能更快地回答,尤其是当回答变得越来越复杂时。”
苏姿丰:AMD不需要击败英伟达 第二名也可以过得很好
AMD面临的主要问题是,那些一直依赖英伟达的公司是否会投入时间和金钱来增加另一家GPU供应商。
苏姿丰也承认,这些公司确实需要“付出努力”来转向AMD芯片。
AMD周三告诉投资者和合作伙伴,公司已经改进了对标英伟达CUDA的软件套件ROCm。CUDA套件一直是AI开发者目前青睐英伟达的主要原因之一。
价格也很重要。AMD周三没有透露MI300X的定价,但肯定会比英伟达的旗舰芯片更便宜,后者的单价在4万美元左右。苏姿丰表示,AMD的芯片必须比英伟达的购买和运营成本更低,才能说服客户购买。
AMD还称,已经和一些最需要GPU的大公司签下了MI300X的订单。
Meta计划把MI300XGPU用于人工智能推理任务,微软首席技术官Kevin Scott也表示,公司会把MI300X部署在其云计算服务Azure中,此外,甲骨文的云计算服务也会使用MI300X。OpenAI也会在一款叫做Triton的软件产品中使用AMD GPU.
根据研究公司Omidia的最新报告,Meta、微软、甲骨文都是2023年英伟达H100 GPU的重要买家。
AMD没有给出MI300X的销量预测,仅预计2024年数据中心GPU总收入约为20亿美元。而英伟达仅最近一个季度的数据中心收入就超过了140亿美元,不过算上了GPU之外的其他芯片。
展望未来,AMD认为,人工智能GPU的市场规模将攀升至4000亿美元,比之前的预测翻了一番。由此可见,人们对高端人工智能芯片的期望有多高、垂涎有多深。
苏姿丰还对媒体坦然地说,AMD不需要击败英伟达,也能在市场上取得好成绩。言下之意就是,第二名也可以活得很好。
她在谈到AI芯片市场时表示:
“我认为可以明确地说,英伟达现在肯定是市场的领导者,我们相信,到2027年,这个市场的规模可能会达到4000多亿美元。我们可以从中分得一杯羹。”
内容链接:https://www.hpaper.cn/14241.html