请问要深度学习,深度学习服务器

有什么好用的深度学习gpu云服务器平台?

请问要深度学习,深度学习服务器


谢邀!对初学者来说CPU足以 。以下几点:1) 先把CPU利用好: 其实对于很多初学者来说能把OpenMPI配置好,多线程利用起来,C底层程序用Intel MKL编译(需要Intel CPU),基本上可以带来的效率提升可以近似于用GPU 。2) 然后利用好你自己的时间: 貌似现在道听途说一般的结论是GPU比CPU提速10倍左右 。
。。大家想想,训练一个模型,本来要CPU跑10个小时,结果买了GPU只用1一个小时,但是节约来的9个小时里面一半浪费在了看知乎上(说你呢!),另一半浪费在了刷微信上 。。。本屌最近跑些NLP方面的东西,东西不是特别大,Ubuntu笔记本装了OpenMPI可以四个线程一起跑,也比单核CPU快一倍左右,基本上白天先把模型设置好,跑上3~4个Epoch看看效果,然后在晚上睡觉之前开始跑个20-30个循环,第二天早上怎么也都好了 。
Supermicro展示的Nervana NNP-T深度学习服务器有何特点?
请问要深度学习,深度学习服务器


随着人工智能和机器学习应用的兴起,研究者对于深度学习和训练的计算量需求也日渐提升 。为满足这种密集的运算需求,通常需要相当大规模的服务器集群 。在今年早些时候的 Hot Chips 大会上,我们已经见到过来自英特尔的 Nervana NNP-T Spring Crest 芯片 。通过收购 Nervana,英特尔获得了打造“大型训练芯片”所需的 IP。
(题图 via AnandTech)据悉,该芯片基于台积电 16nm 工艺制造,辅以 CoWoS 和四层 HBM2 内存,面积达到了 680 平方毫米 。本周早些时候,Supermicro 已经在超算大会上展示了最新的 Nervana NNP-T 服务器 。这些硬件均基于 PCIe 扩展卡,可想象它们此前被设计为可容纳 GPU 的传统服务器 。
其采用了典型 2P 布局,可在 4U 机箱中插入 8 张扩展卡,且计算卡之间可以互相通信 。每颗芯片具有 3.58 Tbps 的总双向带宽,而片外连接则支持多达 1024 个节点的可伸缩性 。从每张 PCIe 卡片的 8-pin 辅助供电来看,其峰值功率应该在标准的 225W。本周晚些时候,Supermicro 告知其已获准展示该系列服务器的 8 路 OAM(OCP 加速器模块)版本 。
其能够通过底板的 PCB 保持芯片间的通信,而不是传统的 PCIe 卡对卡之类的桥接器 。这使得扩展卡之间能够流通大量的空气来散热,并且兼容模块化的 OCP 标准 。作为英特尔首款支持 bfloat16 深度学习训练的芯片,每个芯片最多支持 119 个 TOP。另有 60MB 片上存储器和 24 个专用的“张量”处理器集群,后者具有双 32×32 矩阵乘法阵列 。
该芯片共有 270 亿个晶体管,内核频率 1.1 GHz、辅以 32GB HBM2-2400 内存 。从技术上来讲,PCIe 连接可以升级到 Gen 4.0 x16,但英特尔商务 CPU 支持这项特性 。有人表示,为展开此类计算,一些客户正在将头结点从 2P 升级到 4P(Facebook 更是用上了 8P) 。
想买一个笔记本电脑,主要是跑跑深度学习,预算在10000元左右,有什么推荐?
请问要深度学习,深度学习服务器


做深度学习对于显卡要求极高而且极其苛刻,我其实不建议买笔记本来做深度学习,强烈建议自己DIY台式机来做深度学习,当然你也可以有其他备用选择,选择比较成熟的云服务器或者成品服务器 。AlphaGo和百度无人驾驶汽车逐渐进入大众视野之后,人工智能最核心的技术方向深度学习成了很多技术从业者争相进入的领域 。由于图像识别等方面的技术需求,你需要保证你的机器拥有足够多的CUDA运算单元,你的显卡选择将变得非常局限性,你基本上只有N卡可以选择,A卡基本上就放弃了,深度学习最核心的就是GPU编程,而英伟达的CUDA基本上统治了深度学习领域,而且对显卡性能要求非常高 。

推荐阅读