AMD苏姿丰:AI十年繁荣期,今年才是第二年

图灵汇官网

人工智能数据中心加速器市场在未来三到四年有望达到5000亿美元规模。9月17日,AMD首席执行官苏姿丰在华盛顿特区的Axios AI+峰会上表示,现在只是进入人工智能快速发展的“十年周期”的第二年。她认为,未来五年人工智能将带来难以想象的变化。同时,她也强调,人工智能是她职业生涯中最具变革性的技术之一。

半导体行业整体规模在过去几年迅速增长,目前已经达到5000亿美元水平。这说明人工智能相关技术的发展速度非常快。2025年第一季度,全球数据中心资本支出同比增长53%,达到1340亿美元。这一增长主要受到生成式AI技术推动,特别是Nvidia Blackwell系列GPU和定制加速器的需求激增。

随着人工智能算法对计算能力的要求不断提高,传统CPU已经无法满足需求。GPU凭借并行计算的优势,成为数据中心升级的重要选择。AWS、Google、Meta和微软四家公司占据了全球云计算市场的大部分份额,它们在第一季度的资本支出占了44%。这些企业正在加快人工智能云基础设施的建设,以提升计算效率和响应速度。

企业级基础设施建设也占到了三分之一的投资比例。尽管一些公司因为预算限制和关税问题调整了计划,但整体投资仍然保持增长。数据中心和云服务提供商正在根据市场需求灵活调整容量,而不是大幅削减投入。这种策略显示出他们对未来发展的信心。

生成式AI的兴起带动了数据中心建设热潮。亚马逊在2025年第一季度的资本支出为243亿美元,主要用于扩展AWS的AI云基础设施。微软和谷歌分别投入了214亿和170亿美元。

苏姿丰此前提到,MI300X GPU加速器是AMD近年来增长最快的系列产品之一。这款芯片拥有192GB内存,集成1530亿个晶体管,能够支持训练大型语言模型。这标志着AMD在人工智能芯片领域取得了显著进展,未来可能挑战Nvidia的市场地位。

今年6月,AMD在美国圣何塞举办的Advancing AI 2025大会上发布了新一代Instinct MI350系列GPU,包括MI350X和MI355X两款型号。这两款产品在性能和技术上都有突破,为AI计算带来了新的动力。

MI350系列基于第四代Instinct架构(CDNA4),采用3nm工艺,集成了高达1850亿个晶体管。两款GPU都配备了288GB HBM3E内存,带宽达到8TB每秒,是英伟达B200和GB200的1.6倍。在FP64精度下,MI350X和MI355X的算力分别为72和78.6TFLOPs,是同类产品的两倍。在低精度格式下,性能与英伟达相当或更优。MI355X在FP4精度下比B200快30%,在训练和推理方面表现同样出色。此外,MI355X功耗更低,每美元可以处理更多数据。

MI350X和MI355X的核心设计相同,但散热方式不同。MI350X使用风冷,最大功耗为1000W;MI355X采用液冷,功耗达到1400W,因此性能更高。

为了配合MI350系列,AMD推出了ROCm7软件栈。相比前一版本,ROCm7的推理性能提升了3.5倍,训练性能提升了3倍。它还支持分布式推理,并与多个开源框架深度整合,可直接使用超过180万个Hugging Face模型。

AMD还在发布会上公布了未来的产品路线图。下一代MI400系列将于明年发布,由AMD和OpenAI合作开发,OpenAI提供了重要的反馈。MI400系列将采用下一代CDNA架构,预计性能比MI300系列快10倍,FP4运算速度可达40PFLOPs。此外,AMD计划在2027年推出MI500系列GPU,并发布代号为Verano的下一代EPYC处理器,进一步增强其在AI计算领域的竞争力。

本文来源: 互联网 文章作者: Hadoop技术博文
    下一篇

导读:“限制行业发展的不是交付,对于中国来说交付不是问题。”近日,众擎机器人创始人赵同阳向澎湃新闻记者表示,目前人形机器人的核心问题,是交付后的产品和技术是否能让客户买单。赵同阳称:“众擎成立才1年1