为何说成立五角大楼AI中心是美国AI战略的一大步( 三 )


然而, 效率的提高不足以完全解决美国政府在实现人工智能宏图伟业的路上的障碍 。 为了鼓励联邦机构和领先的人工智能公司和研究人员之间的富有成效的关系, JAIC——以及国防部更广泛的人工智能战略所涉及到的其他机构和部门——将需要可靠地承诺以不违背伦理和安全的方式来处理人工智能的发展和部署 。 这对于确保私营企业和学术界的合作至关重要, 也对于美国军方在国际舞台上保持信誉和诚信至关重要 。
在与私营企业合作的过程中, 最近的争议突显了一个事实, 即人工智能研究人员和私营企业领导人将道德和安全视为不可逾越的底线 。 Maven项目只是表明私营企业与政府机构的紧张关系还远未得到解决的众多迹象之一 。 亚马逊和微软最近因向移民和执法机构出售支持人工智能的面部识别软件而受到抨击 。 最近, 未来生命研究所(Future of Life Institute)在一封信中呼吁各国政府禁止使用致命的自动武器, 它获得了包括Element AI和谷歌旗下的DeepMind在内的几家领先的人工智能公司的支持 。 这封信还得到了众多人工智能研究人员的签署支持 。
人工智能公司和研究人员正面临着一个决定性的挑战——何时与国家安全部门合作?又要如何与之合作?一些人认为, 全面抵制是唯一的出路 。 另一些人则认为, 人工智能与军方的整合是不可避免的, 因此, 他们的任务是在道德的基础上实现人工智能的整合 。 如果美国政府未能在道德和安全方面阐明原则立场, 国防部和人工智能私人企业将无法实现合作 。 然而, 如果JAIC成为了对道德和安全进行承诺的先驱, 它可能会带来新一波与私营企业进行的合作——这基于对人工智能应该和不应该被美国部署利用的一种常见理解 。
在国际舞台上, JAIC同样提供了一个重要的机会, 让美国向其他国家发出信号, 表明其在开发和部署的人工智能系统的可靠性和安全性方面的承诺 。 在美国军事机构中还存在着强大的安全规范的先例, 尤其是在海军潜艇、航母甲板操作员和宙斯盾武器系统操作人员中 。 因此, 以安全为导向的人工智能整合方法是美国军事行为的自然延伸——而且将是必要的, 尽管这具有挑战性 。 领先的人工智能研究人员已经发现了许多现代机器学习系统仍然缺乏稳定性——因此, 它们很容易导致人类设计者无法预见的事故 。 使用者是美国军方的情况下, 这种风险有时会产生严重的后果 。 而这种错误可能会随着部署技术系统的复杂性的提高而变得更加普遍 。
因此, 美国军方应该优先考虑减轻与人工智能支持的系统的意外后果相关的风险, 并为追求采用其他类似技术的军队设定一个标准 。 很有可能的是, 在安全意识上的要求会普遍为其他国家所接受, 并将有助于与加拿大和欧盟等国家建立富有成效的联盟, 他们在各自的人工智能战略中都强调了伦理和安全的重要性 。 这种做法也可以降低美国和各国之间的竞争态势将演变为“竞相争先”的风险, 即每个国家都在加强其人工智能系统的安全性和稳定性方面走捷径, 以获得相对于另一方的优势, 从而引发重大的意外伤害的风险 。
就目前而言, JAIC是一个很好的平台, 它可以作为一种工具, 表明美国在实现人工智能的过程中对道德和安全的可靠承诺 。 事实上, JAIC的核心任务之一就是与国防部长办公室合作, 为人工智能的开发和交付制定标准和治理框架 。 在建立JAIC的过程中, 国防部已经发出了确保“坚守对军事伦理和人工智能安全的承诺”的信号, 因此JAIC作为美国国防部的一个重要组成部分, 成为推动人工智能向前发展的一个焦点, 这为美国提供了一个及时的机会, 使其能够清晰地阐述其符合道德伦理和其安全的人工智能实现之道 。

推荐阅读