英特尔AI硬件负责人Carey Kloss:什么是真正的AI芯片


英特尔AI硬件负责人Carey Kloss:什么是真正的AI芯片



编者按:5月23日英特尔在美国旧金山举办了首届AI开发者大会(AI DevCon 2018) , 推出新的AI云端芯片和AI战略 , 我们采访了英特尔AI产品部门(AIPG)副总裁、AI硬件负责人Carey Kloss , 让他为我们揭开NNP芯片的真面目>>
如今 , AI芯片的战火愈演愈烈 , 英特尔也是时候拿出自己的“深水炸弹”了 , 而这次天将降大任的就是最新版NNP芯片 。
它的全名叫Nervana NNP-L1000(Spring Crest) , 支持bfloat16这一业界广泛用于神经网络的数字格式 , 随着时间的推移 , 英特尔将在AI产品线上扩展对bfloat16的支持 , 包括英特尔至强处理器和英特尔FPGA , 英特尔Nervana NNP的目标是可实现高计算利用率并支持多芯片互连的真正模型并行 。
主导这一产品的是英特尔AI产品事业部(AIPG) , AIPG是英特尔人工智能的拳头部门 , 负责策划和执行关于AI方面的研发和产品路线 , 其中 , Carey Kloss是AI硬件的负责人 , 自1996年以来 , 他一直在芯片行业从事工作 。
这位芯片专家来自Nervana , 这家公司2016年并入英特尔麾下 , 他们几乎撑起来了AIPG的半边天 , Carey和Nervana公司的CEO Naveen Rao一同加入英特尔 , 目前 , Naveen Rao担纲英特尔AI战略总策划师 , 任英特尔副总裁 。
这次 , 关于更多新款AI云端芯片的问题 , 网易智能对Carey进行了专访 。
性能提升3到4倍 不畏惧竞争对手
问:Lake Crest和Spring Crest的主要区别是什么?
Carey:Lake Crest是先前的设计 , 是更稳定的处理器 。 我们在创业时就开始使用它 。 进入更现代化的制程节点 , 我们集成了更多的Die(硅芯片) , 可以获得更快的处理速度 。
我们认为Lake Crest作为软件开发工具(software development vehicle)更好,部分原因是因为我们去支持了bfloat 。 客户对于能在直接获得成果更兴奋 , 而不是还需要在中间做一些工作 。
关于Spring Crest的制程节点 , 我们尚未公布关于哪些产品使用制程节点的任何信息 。 因为需要一定的时间去制造硅片 , 也需要时间把硅片变成新的神经网络处理器 , 这是延迟到2019年上市的原因 。
性能方面 , Lake Crest作为我们第一代处理器 , 现在被用作软件开发工具的时候 , 我们实现了在GEMM和卷积神经上都实现了非常好的计算利用率 。 并且这不仅仅是96%吞吐量的利用率 , 而是在没有充分定制化的情况下,我们也取得了大多数情况下实现GEMM高于80%的计算利用率,这也是很了不起的 。
当我们开发Spring Crest这个下一代芯片时 , 我们保持高计算利用率 , 新的产品在性能上有3到4倍的性能提升 。
问:此前Lake Crest的计算利用率达到了96% , 但Spring Crest的计算利用率稍微低了 , 这是为什么?
Carey:实际上这个是我的想法 , 把利用率适当下降 , 有些情况上确实可以实现98% 。 在没有资源冲突 , 每个硅芯片都能完全运行的情况下 , 可以99%甚至100%计算利用率 。
每个架构都会有些情况能够充分利用 , 无论它们现实与否 。 我想在Spring Crest幻灯片上展示的是 , 大多数情况下都能实现的利用率 。 我们当然可以展示在基准测试中获得100%计算利用率的例子 , 但是我想表示的是很多用例都会有很高的利用率 。
问:芯片晚些时候上市会给英特尔在市场竞争中造成不利影响吗?
Carey:我认为我们逐步转向bfloat是一个重要的考虑因素 , 因为如果这就是市场需要的 , 那么我认为我们对它的反应很快 , 我不知道我们的竞争对手的路线图是什么 , 但我认为我们的反应速度相对较快 , 所以我认为我们不会在神经网络处理上处于劣势 。

推荐阅读