All in深度学习!辉达黄仁勋于GTC宣布软硬体全面升级

图灵汇官网

NVIDIA在GPU Technology Conference的深度学习与硬体升级

深度学习与股价增长

在GPU Technology Conference(GTC)的舞台上,NVIDIA,以其在人工智能领域的领导地位,展示了其在深度学习领域的最新应用与硬体升级,进一步推动了股价的攀升。自去年以来,深度学习市场经历了显著的发展,NVIDIA 创始人兼执行长黄仁勋在此次活动中揭示了一系列前沿的深度学习应用,涵盖医疗影像分析、智慧制造、自动化拣货与品质管理、以及公共安全和设施中的影像识别。

GPU的历史与技术创新

回顾过去四十年,GPU从最初的图形渲染工具发展成为现今能够处理复杂深度学习任务的核心。从耗时数小时绘制逼真图像,到如今支持4K分辨率、每秒60帧的实时影像输出,GPU的性能飞跃令人瞩目。借助动作捕捉技术,电影制作人得以在短时间内生成逼真的即时场景影像。

新一代GPU与NVLink 2.0

NVIDIA在GTC上推出了基于Volta架构的全新Quadro GV100显卡,该显卡支持高达32GB的内存,并通过NVLINK 2.0技术实现多GPU之间的高效协同工作,最高可扩展至64GB内存。这一系列的创新,旨在优化图像描绘领域的应用,包括游戏、媒体与娱乐、产品设计与建筑等多个行业,每年通过GPU描绘的影像数量以数十亿帧计算。

Volta微架构与Tensor Core的强化

NVIDIA持续推动基于Volta微架构的硬件升级,引入专为人工智能优化的Tensor Core,满足市场对深度学习模型处理数据量持续扩大的需求。Tesla V100 GPU在去年的基础上增加了两倍的内存容量,达到32GB,以缓解高性能计算对内存的高需求压力。此外,NVIDIA还加强了CPU与GPU之间的协调能力,通过NVLink 2.0协议的升级,包括推出NVSwitch交换器,以300GB/s的传输速度实现GPU间的高效数据交换,从而允许开发者在服务器上并行训练更多的神经网络。

DGX系列产品与软体支持

NVIDIA推出DGX-2,作为数据中心的理想选择,搭载16组Tesla V100,性能是前代产品的两倍。DGX系列产品还包括DGX-1与DGX Station,分别定价399,000美元、149,000美元与68,000美元。相比仅依赖CPU构建的数据中心,NVIDIA强调“买得多,省得多”的策略。

NVIDIA GPU Cloud的全球化布局

NVIDIA GPU Cloud在全球范围内得到了扩展,全面支持Kubernetes,并横跨亚马逊网络服务(AWS)、谷歌云平台(GCP)、阿里云与Oracle云,为深度学习与高效能计算框架提供广泛的软体支持。

PLASTER理论与软体优化

黄仁勋提出了一套衡量深度学习系统集成能力的理论——PLASTER,包括可程式化能力、服务反应速度、模型应用精确度、神经网络模型大小、生产总量、能量效率以及深度/机器学习模型的训练、推论、部署速度。这一理论强调了易于编程、快速部署对于商业应用的重要性。NVIDIA宣布了TensorRT 4的更新,支持在数据中心、嵌入式系统与车载终端运行的多GPU神经网络训练,与Google合作整合TensorFlow 1.7,并支持神经机器翻译、自动语音识别、语音合成与推荐系统等深度学习推论应用领域。同时,NVIDIA与Amazon、Facebook、微软合作,宣布TensorRT 4支援ONNX框架,促进深度学习开发框架如MXNet、Caffe 2、PyTorch之间的模型训练数据快速交换。

结语

在GTC的舞台上,NVIDIA通过展示其在深度学习应用与硬体升级方面的最新成果,进一步巩固了其在人工智能领域的领先地位,同时也为全球开发者提供了更加高效、便捷的软体与硬件解决方案,推动了深度学习与人工智能技术的普及与应用。

本文来源: 人工智能学习网 文章作者: 丁伯洋