AI寒冬将至?行业大咖呼吁重启AI再出发( 二 )


风投公司意识到 , 他们可能在一段时间内看不到投资回报 。 然而 , AI还没有准备好迎接黄金时段的到来 , 原因之一就在于几乎无处不在的AI实验几乎都没有看到曙光 。
算法需要负责任吗
我们听说过AI“黑箱” , 即研究人员目前还不清楚AI如何做出决策 。 这种做法是在银行和大型机构面临要求问责制的合规标准和政策的情况下出现的 。 由于系统是作为“黑箱”操作的 , 只要这些算法的创建经过了审查 , 并且满足了关键涉众的一些标准 , 人们就可能对算法产生固有的信任 。
鉴于大量证据表明开发中的算法存在缺陷 , 以及由此产生意想不到的有害结果 , 这种观点很快就引发了争议 。 我们的许多简单系统都像“黑箱”一样运作 , 超出了任何有意义的审查范围 , 原因包括公司有意保密、缺乏足够的教育以及缺乏了解如何批判性地检查输入、结果 , 最重要的是 , 不理解为何会出现这些结果 。
班尼特表示:“如今 , AI行业正处于企业准备采用的早期阶段 。 AI是非常有用的 , 可以通过大量的数据进行发现和分析 , 但是它仍然需要人类的干预作为对数据及其结果进行评估和行动指南 。 ”
班尼特还澄清说 , 如今的机器学习技术使数据能够被标记出来 , 以帮助识别真知灼见 。 然而 , 作为这个过程的一部分 , 如果有些数据被错误地标记 , 或者没有足够的数据训练 , 亦或者有问题的数据产生偏见 , 很可能会出现糟糕的决策结果 。 她还表示 , 目前的流程仍在不断完善:“目前 , AI都是关于决策支持的 , 以提供洞察 , 让企业可以从中得出结论 。 在AI发展的下一个阶段 , AI可将数据中的动作自动化 , 还有些额外的问题需要解决 , 比如偏见、可解释性、隐私性、多样性、伦理和持续的模型学习等 。 ”
这表明 , 要想真正理解AI产品 , 需要有个关于对象和人的常识世界模型 , 以帮助AI去真正了解它们 。 一个模型只暴露在有限数量的标记对象和有限种类的训练中 , 这将限制这个常识世界模型的有效性 。 企业需要进行研究 , 以确定模型如何处理其输入 , 并以人类可以理解的方式得出其结论 。 亚马逊发布的面部识别技术Rekognition , 是目前正在研发和许可使用的AI技术的典型例子 , 但其有效性存在明显的差距 。
美国公民自由联盟发布的一项研究称:“亚马逊的技术将28名国会议员的照片与罪犯公开的脸部照片混淆了 。 鉴于亚马逊积极向美国各地的执法机构推销自己的Rekognition , 这显示其还远远不够好 。 ”算法正义联盟(Algorithmic Justice League)的创始人乔伊?布拉马维尼(Joy Buolamwini)在最近的一次采访中 , 呼吁暂停这项技术 , 称其无效 , 并需要更多监管 。 此外 , 在这些系统被公开发布之前 , 政府应该制定更多相关标准 。
数据的完整性问题
如今的AI需要大量的数据才能产生有意义的结果 , 但无法利用其他应用程序的经验 。 虽然班尼特认为克服这些局限性的工作正取得进展 , 但是在模型以可扩展的方式应用之前 , 学习的转移是有必要的 。 然而 , 在某些情况下 , AI可以在今天得到有效的应用 , 比如在图像、声音、视频和翻译语言方面的洞察力 。

推荐阅读