人工智能,让机器也会“感情用事”( 三 )


2. 在目标之间发生冲突时 , 情感评价会成为选择的重要根据 。 这可以被作为“两人掉河里先救谁”之类的心灵拷问的合理性基础 。
3. 在决策过程中 , 带有强烈情感的任务更容易触发系统的外部行动 , 而不必付出深思熟虑所要求的时间代价 。 “情急之下”的反应尽管往往在事后看来不是最优的 , 但却很可能是救了命的 。
4. 在系统“心情好”的时候 , 它会给新任务和相对不重要的任务更多的考虑;相反 , 在“心情差”的时候 , 它往往聚焦于当下的难题 。 根据前面的描述 , 心情差说明有重要目标尚未达成 , 这时自然不该分心再去干别的 。
当然 , 上述设计仅仅触及了情感机制的简单形式 , 而后面任务还有很多 。 在纳思的研发计划中 , 主要包括情感的进一步分化(通过满足感和其它概念的结合 , 比如区分其不同的特征)和各种情感的不同后果 , 情感在外部交流中的使用和辨识 , “同情”的形成和限度 , 自我情绪调节和控制等等 。 当纳思被实现在机器人系统中时 , 情感会被用来影响更多方面 , 比如系统的能源消耗速率(一个机器人跑多快将取决于它多着急)等等 。
机器情感的界定和后果
尽管很初等 , 目前的工作起码已经展示了将情感引入通用人工智能的理由和可能性 。 根据我的智能定义(见《人工智能:何为“智”?》 , 点击左下角“阅读原文”可获取) , 情感并不是智能的一个必要成分 , 但却是高级智能系统的自然需求 , 因为情感机制能让系统在约束条件下更有效地使用知识和资源 。 根据上面的解释 , “情感”和“理智”尽管可以密切协作 , 其间的差别依然存在 , 因为后者一般基于对明晰表达的当前信念和目标的直接处理 , 而前者的来源和表达常常难于分析和辨识 。 但这绝不说明情感是空穴来风 , 是“非理性” 。 “情感”或许更应该被看作“理智的积淀” 。 比如说爱憎的来源尽管常常难以说清 , 却绝不是没来由的 。
这不是说传统的理性模型都错了 。 它们针对的问题是目标单一而且知识资源充分 , 而在那种条件下情感往往的确只能添乱 。 但现实并不总是那么井井有条 。 多目标的竞争要求系统能做出轻重缓急、亲疏远近之间的分别 , 而时间压力要求快速反应 。 情感的确有很多负面后果 , 但在很多情况下没有情感反而会更糟 。
对本文观点的一个预料之中的反对意见是说纳思不能算有“情感” , 因为其中找不到多巴胺、肾上腺素、荷尔蒙等等的对应物 , 它也不会“喜上眉梢”或“怒发冲冠” 。 和在很多其它关于AI的讨论中一样 , 这里的关键是要不要在“人类情感”和“动物情感”之上引入一个更一般的(功能性的)“情感”概念 。 只要承认这种抽象的必要性 , 是否管它叫“情感”就主要是个用词习惯的问题了 。 如果“情感”一定要被定义为动物才能有 , 我们可以管纳思的相应机制叫“机情” , 但这实际上并不影响这个机制和人类情感的相同点和不同点 。 比如说如果你设计的机器狗有这种机制 , 那你如果在测试其平衡能力时经常踹它(像那个广为流传的录像里那样) , 就不要奇怪它为什么总躲着你了 。 如果你的机器人不干活而跑去看电视 , 那也没什么可奇怪的 。
这当然就会导出对“机器情感”的另一个反对意见 , 即担忧其社会后果:如果机器人恨人类怎么办?在我看来恰恰相反:让人工智能有情感很可能是保证这一技术的安全性的必然要求 。 对一个有自主性和适应性的系统来说 , 由设计者完全事先决定其在所有情况下的反应是不可能的 。 如果希望它在未来千变万化的情况下按我们的期望来行为 , 让系统可以辨别喜恶和区分轻重缓急就是必然的了 。 一个从心里爱人类的AGI远比一个仅仅牢记各种道德戒律的要安全得多 。 当然这里还有很长的路要走(怎么让它爱人类?电影《A.I.》中那种“思想钢印”靠谱吗?) , 旅途中又是机会和挑战同在 , 可这不正是科学探索的本色吗?

推荐阅读