在iPhone XS上能用AI做些什么?


在iPhone XS上能用AI做些什么?



美国当地时间周三 , 苹果公司(Apple)在其A系列处理器中推出了第二版“神经引擎”(neural engine) , 呼吁开发者在移动设备上为机器学习(ML)引入更多用例 。 这应该有助于在智能手机上普及人工智能(AI) 。
在AI更广泛的领域内 , 机器学习中最棘手的问题之一 , 就是找出计算机应该解决的问题 。 只有当某件事情被框定为寻找问题的解决方案时 , 计算机才能够学习和理解 。 苹果正试图通过吸引开发者使用其芯片和软件编程工具来为移动设备上的神经网络提供新的用例 , 来应对这一挑战 。
周三在库比蒂诺(Cupertino)总部举行的新品发布会上 , 苹果讨论了iPhone XS、iPhoneXS Max和iPhoneXR的“神经引擎” 。 “神经引擎”是iPhone的A系列处理器的一个部分 , 专门用于研究机器学习工作负载 。
今年的A12芯片采用的是“神经引擎”的第二版本 , 它于去年首次在iPhone X的A11处理器上亮相 。 新版“神经引擎”有8个核心 , 高于之前的2个 。 苹果公司表示 , 这使得电路可以每秒处理5万亿次运算 , 而去年这个数字为6000亿次 。
如何利用这些专门的计算能力本身也存在问题 。 苹果有些建议 , 但它显然希望开发者使用其机器学习编程开发工具包Core ML来填补空白 。 去年的iPhone X已经使用“神经引擎”进行面部识别 。 昨天 , 该公司的营销主管菲尔·席勒(Phil Schiller)讨论了iPhone XS现在如何让“神经引擎”与芯片的另一个领域 , 即专门用于照片处理的功能——图像信号处理器共同工作 。
综合起来讲 , “神经引擎”可以帮助图像信号处理器创建更清晰的“分割掩模” , 以辨别人脸在图像中的特征 。 这可以用来改善在拍摄人像时对脸部的照明 。 为了展示开发者可以做什么 , 苹果邀请Nex Team上台 , 这是个正在构建增强现实(AR)应用程序的初创公司 。 他们展示了如何使用篮球录像训练球员 。
在咨询了菲尼克斯太阳队(Pheonix Suns)前球星、现任职业教练的史蒂夫·纳什(Steve Nash)后 , Nex Team公司开发出一个程序 , 可以拍摄视频 , 并实时跟踪视频中球员在篮筐前练习投篮的姿势 。 这种应用还可实时绘制篮球的飞行轨迹 , 并收集各种其他指标 。 因此 , 训练可以被重新定义为一个ML问题 , 即如何使用移动视频来衡量支撑最佳运动员表现的统计数据 。
与像Nex Team这样的开发者签约是一种方式 , 可以让苹果和其他不同芯片开发者保持一定的距离 , 这些芯片开发商要么是为了开发AI而研制商用硅 , 要么是为了让自家手机变得更加强大而加强内部努力 。 例如 , 芯片巨头高通(Qualcomm)在其骁龙移动处理器生产线中加入了AI 。 华为在其智能手机的麒麟芯片中植入了AI电路 , 三星也在其Galaxy智能手机上采用了Exynos处理器 。
芯片研究公司林利集团(the Linley Group)首席分析师林利·格温纳普(Linley Gwennap)说 , 就像数字信号处理器(从CPU那里接管数学功能 , 比如视频解码)一样 , 机器学习电路正在预测移动设备中ML工作负载的波动
他说:“这遵循了某个公认的路径 , 你不希望在很多事情上使用CPU , 而把一个普通的函数放到一个单独的函数块中总是更有效率 。 CPU可以运行简单的神经网络来进行人脸识别和其他操作 , 但当你把同样的任务交给硬件处理器时 , 比如神经引擎 , 它可以做同样的工作 , 而且只需要十分之一的CPU功耗 。 ”
格温纳普举例称:“在卷积神经网络中 , 大约80%的计算是矩阵乘法 。 ”他指的是最常见的机器学习结构之一的“原语”之一 。 识别这些常见的原语是一种简单的方法 , 可以在各种各样的AI工作负载中提高性能 , 即使算法会发生变化 。

推荐阅读