在GPU Technology Conference(GTC)的舞台上,NVIDIA,以其在人工智能领域的领导地位,展示了其在深度学习领域的最新应用及硬体升级,进一步推动了股价的攀升。自去年以来,深度学习市场经历了显著的发展,NVIDIA 创始人兼执行长黄仁勋在此次活动中揭示了一系列前沿的深度学习应用,涵盖医疗影像分析、智慧制造、自动化拣货、安全监控等多个领域。
NVIDIA 在GTC上推出了基于Volta架构的全新显示卡Quadro GV100,该款产品不仅配备了32GB的高速内存,还支持NVLINK 2.0,实现多GPU之间的高效协同,最高可达64GB的内存扩展能力。此款显示卡广泛应用于游戏、媒体与娱乐、产品设计与建筑等行业,其每年处理的影像帧数以数十亿计。
NVIDIA在去年的基础上,继续深化Volta架构的硬体性能,引入了针对人工智能优化的Tensor Core,以满足市场对深度学习模型处理能力的需求。Tesla V100 GPU的内存容量提升至32GB,以应对高效率运算对大容量内存的迫切需求。预计IBM、Supermicro、HPE、联想、Cray、Tyan等主要服务器供应商将于2018年第二季度推出支持Tesla V100的产品,而Oracle Cloud Infrastructure也计划在下半年提供相应的服务。
NVIDIA针对NVLink 2.0协议进行了升级,新增了交换器(NVSwitch)功能,该功能不仅增强了协议的带宽,还采用了类似互联网或主机上的多端口交换解决方案,以提高GPU间的通讯效率。台积电12纳米FFN制程工艺的新交换器装置,允许16颗GPU以2.4TB/s的速度进行数据交换,从而加速了神经网络的训练过程。
为了满足数据中心的需求,NVIDIA推出了DGX-2,配备16组Tesla V100,相当于DGX 1的两倍配置。在Facebook Research上进行的测试显示,使用基于Torch架构的神经机器翻译工具集fairseq时,DGX-2的表现较DGX-1提高了10倍。为此,NVIDIA的DGX产品线包括了DGX-2(定价399,000美元)、DGX-1(定价149,000美元)以及DGX Station(定价68,000美元),相比传统CPU架构的数据中心,购买更多GPU意味着更高的成本效益。
NVIDIA GPU Cloud的更新全面支持了Kubernetes,并扩展到了AWS、GCP、阿里云和Oracle云等主要云服务平台,以支持深度学习、高性能计算等框架。黄仁勋提出了“PLASTER”理论,作为评估深度学习或机器学习系统整合能力的标准,包括可编程能力、服务响应速度、模型应用精确度、神经网络模型大小、生产总量、能源效率以及学习速率。
NVIDIA宣布了TensorRT 4的更新,该版本支持在数据中心、嵌入式系统和车载终端运行,能够快速优化、验证和部署多GPU神经网络训练任务。TensorRT 4与Google合作,整合了TensorFlow 1.7,与未优化GPU运算相比,速度可提升8倍。此外,TensorRT 4还支持ONNX框架,使使用MXNet、PyTorch、Caffe 2等主流深度学习开发框架的开发者能够快速交换模型训练数据,并将深度学习推论应用部署至终端自动驾驶系统,如NVIDIA DRIVE或NVIDIA Jetson平台上,以16位半精度(FP16)或8位整数(INT8)精度进行快速部署。