NVIDIA 英伟达账号注册


全名为 NVIDIA GPU Cloud 的 NGC 中心,是近年来 NVIDIA 用来统筹应用资源的云中心,本身并不具备任何计算功能,主要就是“应用资源分类整理”用途,将 NVIDIA 绝大部分与 GPU 开发相关的工具包、开发包、机器学习预训练模型等等,全部集中在这上面,方便开发人员集中使用与下载开发资源 。
登录 http://ngc.nvidia.com 就能进入 NGC 中心(如下图),不过这个入口的更新频率很高,首页所看到的内容可能跳转至其他地方 。网页最左边的 “Explore Catalog” 与右上角的“用户名(未登录之前为 Guest)”,大致是固定的 。

NVIDIA 英伟达账号注册



目前 NGC 将所有资源区分为以下五大类:
Collections(集合):
【NVIDIA 英伟达账号注册】这里存放着“以应用为单位”的综合信息内容,因为每个应用都需要用到一个以上的容器、预训练模型、Helm 管理模块或资源,在 NGC 里存放数百个这些元件,如果让开发者自行搜索的话,的确是一件相当费劲的工作 。
NVIDIA 将个别应用所需要的相关信息,先整理好并存放在这个分类里,让使用者可以非常轻松地掌握每个应用所需要的资源列表,目前已经整理好 50+个应用,包括 TAO 对话 AI、ASR 自动语音识别、NLP 自然语言处理等等,还在陆续增加当中 。
下面截屏是在 “Query” 栏输入 “tao” 后,会出现 10 个已经整理好的应用:

NVIDIA 英伟达账号注册



当点击 “TAO Toolkit-Conversational AI” 之后,就会进入下面 “Overview” 截图的内容,显示在 NGC 中心里,目前有 1 个容器、10 个预训练模型与 8 项资源与这个应用是有关的,当然这些数字未来是有可能改变的 。

NVIDIA 英伟达账号注册



点击 “Entities” 就能看到如下图,列出每个元件的名称以及进入该元件说明的链接:

NVIDIA 英伟达账号注册



这样就能很轻松地掌握每个应用完整的资源信息 。
Containers(容器):
Docker 是非常好的用于封装应用软件的容器技术,封装的镜像能提供完全独立的执行环境,这样能有效地解决多种应用的同时运作 。
由于 NVIDIA 的各种开发套件之间,仍有可能存在 CUDA/cuDNN/TensorRT 这些底层库的版本兼容问题,另外包括 Python 各种数学库之间的版本依赖,经常造成软件安装的困难度 。
NVIDIA 将大部分开发套件与工具包,以不同应用场景或功能组合的形式,用 Docker 技术进行封装,例如 TAO 开发工具就有 for Conv AI、for CV 与 for Lanuage Model 三种镜像,而 DeepStream 有 6 种以上的镜像 。
使用镜像技术,开发者只需要在工作平台上安装最基础的 GPU 驱动、docker 管理器与 nv-docker 解析器,就能非常轻松地使用这些应用 。目前 NGC 上已经有将近 200 个容器镜像,可以免费使用 。
Helm Charts
这是一组针对 Kubernetes 集群的管理与运维的工具,配合 docker 技术执行应用软件的部署与管理,与 GPU 计算没有直接关联,通常使用在数据中心、云平台上,对各种部署的 GPU 应用进行管理与监控,其中 NVIDIA Network Operator Helm Chart 是最重要的基础元件,对这方面有需求的读者可以从这个元件开始上手 。
Models(模型):
这里提供 300+个预训练好的人工智能模型,包括图像分类、对象检测、语言翻译、文本到语音、推荐引擎、情感分析等等,主要配合迁移学习(transfer learning) 的用途,或者直接拿来作为体验演示用途 。

推荐阅读