All in深度学习!辉达黄仁勋于GTC宣布软硬体全面升级

图灵汇官网

NVIDIA在GPU Technology Conference的深度学习与硬体升级

深度学习与股价增长

在GPU Technology Conference(GTC)的舞台上,NVIDIA,以其在人工智能领域的领导地位,展示了其在深度学习领域的最新应用及硬体升级,进一步推动了股价的攀升。自去年以来,深度学习市场经历了显著的发展,NVIDIA 创始人兼执行长黄仁勋在此次活动中揭示了一系列前沿的深度学习应用,涵盖医疗影像分析、智慧制造、自动化拣货、安全监控等多个领域。

硬体与软件的全面升级

NVIDIA 在GTC上推出了基于Volta微架构的全新显示卡Quadro GV100,该卡不仅配备了32GB的内存,还支持NVLINK 2.0技术,实现多GPU之间的高效协同,最高可达64GB的内存扩展能力。此款显示卡广泛应用于游戏、媒体与娱乐、产品设计与建筑等行业,其每年处理的影像帧数以数十亿计。

Volta架构的强化与NVLink 2.0的革新

延续去年Volta架构的成功,NVIDIA引入了Tensor Core,进一步优化了Tesla V100 GPU的性能,以满足快速增长的人工智能运算需求。Tesla V100 GPU的内存容量提升至32GB,有效缓解了高效能运算对内存的高要求。此外,NVIDIA对NVLink 2.0协定进行了升级,通过引入NVSwitch交换器,实现了16颗GPU之间的高速资料交换,大幅提高了开发者在服务器上训练神经网络的效率。

CUDA平台的更新与软体生态系统的扩展

NVIDIA的CUDA运算平台同步更新,新增了对NVSwitch的支持,使得开发者能够更加便捷地部署和管理GPU资源。与此同时,NVIDIA GPU Cloud平台也得到了增强,全面支持Kubernetes,并覆盖了AWS、GCP、阿里云与Oracle云等主流云端运算服务,为开发者提供了更加丰富的软体环境和资源。

PLASTER理论与人工智能应用关键

黄仁勋提出了PLASTER理论,作为评估深度学习系统整合是否适用于商业应用的标准,包括可程式化能力、服务反应速度、模型应用精确度、神经网络模型大小、生产总量、能量消耗程度以及学习速率等关键指标。他强调,对于大规模资料中心而言,易于编程、维护简便成为核心考量因素。

TensorRT 4的发布与深度学习优化

NVIDIA宣布了TensorRT 4的更新,这一工具旨在加速多GPU神经网络的训练、推理和部署过程,特别优化了与Google TensorFlow 1.7的合作,使得GPU运算速度提升至未优化版本的8倍。TensorRT 4还扩展了对神经机器翻译、自动语音识别、语音合成和推荐系统等深度学习应用的支持,并增加了对ONNX框架的支援,以促进不同深度学习开发框架间的模型转换和共享。

跨平台的深度学习生态系统

通过与Amazon、Facebook、微软等公司的合作,TensorRT 4实现了对MXNet、Caffe 2等主流深度学习开发框架的支援,简化了模型训练数据的快速交换,并支持16位半精度(FP16)或8位整数(INT8)精度的深度学习运算部署至终端设备,如自动驾驶系统,如NVIDIA DRIVE或NVIDIA Jetson,从而构建了一个面向未来、高效且易于操作的深度学习生态系统。

本文来源: 人工智能学习网 文章作者: 平措卓玛