中金数据,中金数据和中金公司什么关系?( 五 )


▲历代 Apple 手机芯片成本趋势
▲自动驾驶算力需求加速芯片升级
▲英飞凌对各自动驾驶等级中半导体价值的预测
结合以上观点,及我们对 AI 在各应用场景下渗透率的分析,中金公司预测:
1、云端训练芯片市场规模在 2022 年将达到 172 亿美元,CAGR~54% 。
2、云端推断芯片市场规模在 2022 年将达到 72 亿美元,CAGR~84% 。
3、用于智能手机的边缘推断芯片市场规模 2022 年将达到 38 亿美元,CAGR~59% 。
4、用于安防摄像头的边缘推断芯片市场规模 2022 年将达到 18 亿美元,CAGR~41% 。
5、用于自动驾驶汽车的边缘推断芯片市场规模 2022 年将达到 52 亿美元,CAGR~44% 。
以下是五个应用场景的详细分析 。
云端训练芯片 :英伟达称霸
▲AI 芯片工作流程
训练是指通过大量的数据样本,代入神经网络模型运算并反复迭代,来获得各神经元“正确”权重参数的过程 。CPU 由于计算单元少,并行计算能力较弱,不适合直接执行训练任务,因此训练一般采用“CPU+加速芯片”的异构计算模式 。目前 Nvidia 的 GPU+CUDA计算平台是最成熟的 AI 训练方案,除此还有:
1、第三方异构计算平台 OpenCL + AMD GPU 或 OpenCL+Intel/Xilinx 的 FPGA 。
2、云计算服务商自研加速芯片(如 Google 的 TPU)这两种方案 。
各芯片厂商基于不同方案,都推出了针对于云端训练的 AI 芯片 。
▲云端训练芯片对比
从整个云端训练芯片的市场竞争格局来看,目前 Nvidia GPU 的优势暂时明显,即便是 Google 的一些深度学习训练任务,同样离不开 Nvidia GPU;在 GPU 之外,云端训练的新入竞争者是谷歌的 TPU,但目前并不对外直接销售;英特尔方面,则在积极布局 CPU+FPGA 异构计算,并持续优化 Xeon CPU 结构;同样深耕 FPGA 的还有 Xilinx ;GPU销量一直甚好的 AMD 也开始切入深度学习训练任务 。
云端推断芯片:百家争鸣
推断是指借助现有神经网络模型进行运算,利用新的输入数据来一次性获得正确结论的过程 。推断过程对响应速度一般有较高要求,因此会采用 AI 芯片(搭载训练完成的神经网络模型)进行加速 。
相比训练芯片,推断芯片考虑的因素更加综合:单位功耗算力,时延,成本等等 。初期推断也采用 GPU 进行加速,但由于应用场景的特殊性,依据具体神经网络算法优化会带来更高的效率,FPGA/ASIC 的表现可能更突出 。
▲主要云端推断芯片对比
除了 Nvidia、Google、Xilinx、Altera(Intel)等传统芯片大厂涉足云端推断芯片以外,Wave computing、Groq 等初创公司也加入竞争 。中国公司里,寒武纪、比特大陆同样积极布局云端芯片业务 。未来,云端推断芯片将针对智能语音识别、智能搜索等应用场景,呈现百花齐放的态势 。
手机端的推断芯片:格局稳定
手机芯片市场目前包括 (1) 苹果,三星,华为这类采用芯片+整机垂直商业模式的厂商,以及 (2) 高通,联发科,展锐等独立芯片供应商和 (3) ARM,Synopsys、Cadence 等向芯片企业提供独立 IP 授权的供应商 。
采用垂直商业模式厂商的芯片不对外发售,只服务于自身品牌的整机,性能针对自身软件做出了特殊优化,靠效率取胜 。独立芯片供应商以相对更强的性能指标,来获得剩余厂商的市场份额 。
▲手机 AI 芯片对比
从 2017 年开始,苹果,华为海思,高通,联发科等主要芯片厂商相继发布支持 AI 加速功能的新一代芯片(如下图),AI 芯片逐渐向中端产品渗透 。
由于手机空间有限,独立的AI 芯片很难被手机厂采用 。在 AI 加速芯片设计能力上有先发优势的企业(如寒武纪)一般通过 IP 授权的方式切入 。

推荐阅读