用“小AI”解决人工智能的“大”烦恼( 二 )


华为研究人员则发表文章称, 他们制作了微型伯特(Tiny Bert)模型, 尺寸比伯特缩小7.5倍, 速度还快了近10倍 。 来自谷歌的研究人员也发表文章说, 他们已经造出了一个比伯特小了60多倍的版本, 但其语言理解能力略差于华为的版本 。
【用“小AI”解决人工智能的“大”烦恼】华为和谷歌他们是如何做到的?其实, 这两家公司都使用了一种常见的压缩技术的变体, 这种技术被称为“知识提取”, 可以让想要缩小的大型人工智能模型去训练其图像中的小得多的模型, 类似于老师训练学生 。
我们可以这样理解, 微型人工智能应是人工智能研究界为缩小算法规模所做的努力 。 这不仅是减少模型的大小, 而且还加快推理速度, 保持了高水平的准确性 。 此外, 还可以在边缘部署小得多的算法, 无需将数据发送到云, 而是在设备上进行决策 。
三个方面缩小现有模型
微小数据、微小硬件、新型材料、微小算法, 微型人工智能是一种综合方法, 涉及数据、硬件和算法的共同开发 。
如何在不明显影响模型准确度的前提下, 缩小现有的深度学习模型, 秦志亮认为, 可以从三个方面着手 。 一是硬件方面的边缘端计算, 二是算法方面的模型简化, 三是数据方面的小样本训练 。
无论是新技术还是新理念, 大众的关注点还是其在市场上的普及率, 特别是产品量产与应用 。
“微型人工智能具体落地场景包括语音助手、数字化妆等, 涉及到即时场景理解, 边缘端目标检测等技术;此外, 微型人工智能也将使新的应用成为可能, 比如基于移动端的医学影像分析, 或对反应时间要求更快的自动驾驶模型的开发 。 ”秦志亮说 。
“现在微型算法一般在几百兆到几个G, 完全可以装在到手机上 。 ”于建港说, 微型人工智能可以应用在所有需要前端控制的应用上, 即使5G已加速覆盖了, 网络时延降低, 但是像工控、自动驾驶、航天等需要快速反应的应用, 都需要本地部署人工智能算法 。 他认为, 将来的业务形态应该是终端做出简单快速的反馈, 服务器做出重大决策 。
在2019年年底的安博会上, 已有人工智能初创企业推出“Tiny AI”, 该公司将低功耗、小体积的NPU与MCU整合, 适配市场上各种主流的2D/3D传感器, 满足2D/3D图像、语音等识别需求的AI解决方案受到了业界的关注 。 此外, 英伟达(NVIDIA)和华为等公司, 也都陆续推出了终端型图形处理器, 体型较小、功耗较低、功能可以满足简单的算法 。
技术初期期待宽松发展环境
微型人工智能尚处于初期发展阶段, 该领域的安全、伦理、隐私等问题也同样引起人们的关注 。
秦志亮担心的问题有两个 。 一是算法歧视可能激增 。 他说, 算法歧视之所以难以解决, 归根结底在于算法的可解释性与训练数据的不均衡, 相比于传统的云端训练, 微型人工智能的训练数据集样本较少, 数据的分布可能更加偏颇 。 另一个隐患是数据伪造的影响 。 GAN(Generative Adversarial Network)和深度伪造技术为代表的视频与图像技术一直是人工智能算法研究的热点 。 随着这些技术的普及, 未来的用户端极有可能接收或产生大量的虚拟伪造数据 。 微型人工智能受限于计算力的制约, 在分散式网络架构中, 如何有效地甄别这些伪造数据, 这很可能是一个隐患 。
于建港则认为, 微型人工智能会导致分布式人工智能的兴起, 每个终端都成为一个AI节点, 各自都能独立存活, 出现类似区块链的应用 。 网络侧的控制力度将降低, 政府的管控风险加大 。 不过, 技术都是两面性的, 于建港分析, 虽然有这些风险, 但是对人工智能的管控技术也在发展, 应该相信微型人工智能的正面作用, 不应该在技术初期就限定太多条条框框 。 (王祝华)

推荐阅读