高性能计算集群

解决方案

联系我们

人工智能深度学习系统

 

概述


深度学习是人工智能 (AI) 中发展迅速的领域之一,可帮助计算机理解大量图像、声音和文本形式的数据。利用多层次的神经网络,现在的计算机能像人类一样观察、学习复杂的情况,并做出相应的反应,有时甚至比人类做得还好。这样便提供了一种截然不同的方式,用于思考数据、技术以及人类所提供的产品和服务。 

通过改进机器学习算法和升级计算硬件,各个行业中有远见的公司都在采用深度学习技术来处理爆炸性增长的数据量。这帮助他们找到新方法来利用随手可得的数据财富开发新产品、服务和流程,从而创造巨大的竞争优势。 

工业与学术界的数据科学家已将 GPU 用于机器学习以便在各种应用上实现开创性的改进,这些应用包括图像分类、视频分析、语音识别以及自然语言处理等等。 尤其是深度学习,人们在这一领域中一直进行大力投资和研究。深度学习是利用复杂的多级「深度」神经网络来打造一些系统,这些系统能够从海量的未标记训练数据中进行特征检测。

虽然机器学习已经有数十年的历史,但是两个较为新近的趋势促进了机器学习的广泛应用: 海量训练数据的出现以及 GPU 计算所提供的强大而高效的并行计算。  人们利用 GPU 来训练这些深度神经网络,所使用的训练集大得多,所耗费的时间大幅缩短,占用的数据中心基础设施也少得多。  GPU 还被用于运行这些机器学习训练模型,以便在云端进行分类和预测,从而在耗费功率更低、占用基础设施更少的情况下能够支持远比从前更大的数据量和吞吐量。

将 GPU 加速器用于机器学习的早期用户包括诸多规模的网络和社交媒体公司,另外还有数据科学和机器学习领域中一流的研究机构。 与单纯使用 CPU 的做法相比,GPU 具有数以千计的计算核心、可实现 10-100 倍应用吞吐量,因此 GPU 已经成为数据科学家处理大数据的处理器。


开发者想要随时随地进行创造和部署。您可以通过世界各地的台式机、笔记本电脑、服务器和超级计算机,以及由 Amazon、IBM 和微软提供的云服务使用 NVIDIA GPU。借助来自 NVIDIA GPU 以及支持软件技术和深度学习专家的支持,现在您可以创建自己的或"即插即用的"深度学习解决方案。

2012年以来nvidia为深度学习制定硬件加速器及软件开发环境,加上众多开源软件的出现,让深度学习飞速房发展。 

包括: 

Caffe: 用于脑回神经网络算法的架构 
cuda-convnet: 脑回神经网络的高性能 C++/CUDA 软件实施 
Theano: 用于定义、优化以及评估数学公式的 Python 库 
Torch7: 用于机器学习算法的科学计算架构 
cuBLAS: GPU 加速版本的完整标准 BLAS 库 
MATLAB: 简单易用的 HPC 语言集成计算、可视化以及编程 

cxxnet: 神经网络工具包以无限计算能力实现无限可能


NVIDIA 的深度学习优势 

NVIDIA 是加速深度学习发展方面的先行者,多年来一直致力于开发深度学习软件、库和工具。为训练诸如图像、笔迹和声音识别等颇具挑战的应用程序并加快训练速度,目前的深度学习解决方案几乎完全依赖 NVIDIA GPU 加速计算。采用 NVIDIA GPU 的深度学习系统具有以下优势: 

加速的 DNN 和训练性能 
NVIDIA GPU 特别擅长处理并行工作负载,可让网络提速 10-20 倍,从而将各个数据训练迭代周期从几个星期缩短为几天。实际上,GPU 在仅仅三年内便将深度神经网络 (DNN) 的训练速度提高了 50 倍(这一速度远远超过摩尔定律),预计未来几年还将再提高 10 倍。 
快速的人工智能应用程序开发 
人工智能正以极快的速度进行创新。今天,计算机不仅是在学习,而且是在独立思考。这为机器人、医学和自动驾驶汽车等应用程序领域提供了好时机。您可以快速设计和部署深度学习应用程序,以利用这些不可思议的突破性技术。