All in深度学习!辉达黄仁勋于GTC宣布软硬体全面升级

图灵汇官网

NVIDIA在GPU Technology Conference的深度学习与硬体升级

深度学习与股价增长

在GPU Technology Conference(GTC)的舞台上,NVIDIA,以其在人工智能领域的领导地位,展示了其在深度学习领域的最新应用及硬体升级,进一步推动了股价的攀升。自去年以来,深度学习市场经历了显著的发展,NVIDIA 创始人兼执行长黄仁勋在此次活动中揭示了一系列前沿的深度学习应用,涵盖医疗影像分析、智慧制造、自动化拣货、安全监控等多个领域。

硬体与软件的全面升级

NVIDIA 在GTC上推出了基于Volta架构的全新显示卡Quadro GV100,该款产品不仅配备了32GB的高速内存,还支持NVLINK 2.0,实现多GPU之间的高效协同,最高可达64GB的内存扩展能力。此款显示卡广泛应用于游戏、媒体与娱乐、产品设计与建筑等行业,其每年处理的影像帧数以数十亿计。

Volta架构的硬体革新与NVSwitch技术

NVIDIA在去年的基础上,继续深化Volta架构的硬体性能,引入了针对人工智能优化的Tensor Core,以满足市场对深度学习模型处理能力的需求。Tesla V100 GPU的内存容量提升至32GB,以应对高效率运算对大容量内存的迫切需求。预计IBM、Supermicro、HPE、联想、Cray、Tyan等主要服务器供应商将于2018年第二季度推出支持Tesla V100的产品,而Oracle Cloud Infrastructure也计划在下半年提供相应的服务。

NVLink 2.0与NVSwitch的创新

NVIDIA针对NVLink 2.0协议进行了升级,新增了交换器(NVSwitch)功能,该功能不仅增强了协议的带宽,还采用了类似互联网或主机上的多端口交换解决方案,以提高GPU间的通讯效率。台积电12纳米FFN制程工艺的新交换器装置,允许16颗GPU以2.4TB/s的速度进行数据交换,从而加速了神经网络的训练过程。

DGX产品的扩展与定价策略

为了满足数据中心的需求,NVIDIA推出了DGX-2,配备16组Tesla V100,相当于DGX 1的两倍配置。在Facebook Research上进行的测试显示,使用基于Torch架构的神经机器翻译工具集fairseq时,DGX-2的表现较DGX-1提高了10倍。NVIDIA的产品线包括定价399,000美元的DGX-2、149,000美元的DGX-1以及68,000美元的DGX Station,旨在通过购买更多的GPU来降低成本。

跨平台云服务与软体生态系统的增强

NVIDIA的GPU Cloud平台在近期进行了更新,全面支持kubernetes,并扩展到了AWS、GCP、阿里云与Oracle云等主要云服务提供商,为深度学习、高性能计算等框架提供了更广泛的支援。此外,NVIDIA推出了PLASTER理论,用以评估深度学习系统的商业应用潜力,包括可编程能力、服务响应速度、模型应用精确度、神经网络模型大小、生产总量、能源效率以及学习速率等关键指标。

TensorRT 4的更新与深度学习应用

NVIDIA宣布了TensorRT 4的更新,这款软件工具能够支持在数据中心、嵌入式系统和车载终端运行的神经网络训练,加速了模型的最佳化、验证和部署。TensorRT 4与Google合作,集成TensorFlow 1.7版本,相较于未优化GPU运算,速度提升了8倍。此外,TensorRT 4还支持神经机器翻译、自动语音识别、语音合成、推荐系统等深度学习推论应用领域。通过与Amazon、Facebook、微软等合作,TensorRT 4实现了对ONNX框架的支持,使得使用MXNet、PyTorch、Caffe 2等主流深度学习开发框架的用户能够轻松交换模型训练数据。开发者还可以利用TensorRT 4快速将深度学习运算应用部署至16位半精度(FP16)或8位整数(INT8)精度的终端自动驾驶系统,如NVIDIA DRIVE或NVIDIA Jetson。

本文来源: 人工智能学习网 文章作者: 李静