在AI与机器学习领域,NVIDIA的显卡展现出极高的热度,而AMD的GPU加速卡则更多聚焦于传统计算任务,尽管其最新的Insinct MI200系列也不例外。然而,AMD正计划对其RDNA架构显卡进行重大改造,引入专用的APD单元,旨在显著提升机器学习(ML)性能。
近期,美国专利商标局披露了AMD的一项创新GPU专利。AMD在此专利中提出了一个独特的架构概念——在GPU顶部集成额外的芯片,命名为APD(加速处理设备),专为优化机器学习性能而设。此架构内置了内存与一个或多个专用于加速机器学习的加速器。
通过这种设计,AMD宣称能实现显著的机器学习性能提升。其内存配置灵活多样,既可作为缓存使用,也可直接访问,同时集成的MLU逻辑运算单元能够高效执行矩阵运算,进一步增强机器学习性能。
简而言之,AMD在机器学习加速器的设计理念与NVIDIA有所不同。NVIDIA倾向于在现有GPU内核中融入机器学习技术,而AMD则采用专用硬件单元来实现性能优化,这种方法显示出更为显著的优势。
AMD在微小芯片设计领域的丰富经验使其有能力在GPU中集成更多功能单元。例如,在锐龙与霄龙处理器中,AMD已实现了计算与I/O核心的堆叠,而在即将发布的3D V-Cache版锐龙与霄龙处理器中,AMD又增加了缓存单元,这使得在GPU中加入机器学习加速单元成为自然而然的选择。
这项GPU专利无疑将应用于未来的RDNA显卡设计中。目前尚不清楚该技术是否能在今年底前应用于RDNA3架构,也可能要等到下一代的RDNA4架构显卡才能实现这一目标。