人工智能,让机器也会“感情用事”


人工智能,让机器也会“感情用事”



撰文 | 王培(美国天普大学计算机与信息科学系)
近年来计算机的“智力”所达到的范围越来越广了 , 人脑的各种功能纷纷被AI再现 , 尽管不少仍是在初级阶段 。 即使如此 , 还是有一些领域被普遍认为是机器无论如何也无法染指的 , 比如情感 。 一个常见的断言是“人工智能可以有理智 , 但不可能有真正的情感” 。 这种观点有悠久的历史根源 , 但不必去查哲学史 , 我们也知道“理智”和“情感”一般被看作是对立的 , 而且屡屡被告诫在做决定时不应该“感情用事” , 因为那是非理性的 。 在传统的理性模型中是没有情感的位置的 , 而AI系统作为这些模型的具体实现 , 自然没有情感可言 , 随便找一本AI教科书就可以证实这一点 。 科幻小说和电影也反复强化了这种观念 , 以至于“像机器人”往往成了对那些思维有条理 , 处事冷静 , 情感不外露的“理工男”的常见评语 。 但近年来 , 这种传统观念开始受到挑战 。
“情”在“理”之中
在对人类认知活动的研究中 , 情感的作用被越来越多的研究者认为是不可或缺的了 。 这些作用体现在“自我控制”和“人际交流”这两个方面 。
【人工智能,让机器也会“感情用事”】有些情感体现着对系统自身状况的评价 , 比如(正面的)愉悦、得意和(负面的)悲痛、悔恨 。 另一些情感则体现着对外界对象的评价 , 比如(正面的)喜爱、亲切和(负面的)痛恨、厌恶 。 不同的情感会引发不同的应对策略 , 比如说同为负面情感 , 愤怒会令人欲战 , 而恐惧则会令人欲逃 。 和通过深思熟虑才采用的行动相比 , 情绪化反应有直接、快速的特点 , 尽管常常失之粗疏草率 。
由于很多人类情感伴有面部表情和躯体反应 , 它们也因此在人际交流过程中发挥着语言所难以企及的作用 。 这其中包括基于对他人情感的识别来决定自己的应对(察言观色) , 以及通过情感表达来影响他人的行为(动之以情) 。
上述对情感的功能描述并不涉及情感的生理基础 。 这也就是说在计算机系统中原则上也可能有类似的需求以及实现类似功能的机制 。 这也就是目前AI中相关工作的出发点 。 在现有的研究中 , 主要关注点分别对应前面的“控制”和“交流”两个方面 。
近年来兴起的“情感计算”就是试图在人机交互过程中包括情感成分 , 以便更好地服务于用户 。 在和人交流的过程中 , 这种系统会识别用户的情感状态 , 并采取相应的行为 , 包括模拟人类的情感表达 。 各种聊天程序和玩具机器人都在这方面绞尽脑汁 , 希望取悦使用者 , 甚至满足使用者的情感需求 。
通用人工智能(AGI)中的情感研究则基本是在另一个方向上 。 这里的主要目标不是让计算机看起来像是懂得或拥有人类情感 , 而是让它们真的有自己的情感 , 即主要以这一机制满足系统自身的需求 , 而不是满足用户的需求 。 在这个过程中 , 系统的“情感”是否和人类的完全一样并不重要 , 而重要的是其产生、发展、效用等等是否和人类情感的相应方面类似 。 近年来已经有若干“机器情感”的模型被提出和初步实现了 。 由于篇幅的限制 , 我这里不能对各种方案进行全面讨论 , 而下面只介绍我们自己团队在这方面的探索 。
纳思(那厮)的情感
我在前面的多篇文章(比如《你这是什么逻辑?》 , 点击左下角“阅读原文”可获取)中介绍过我设计的AGI系统“纳思” , 而现在的专栏名“AI那厮”也是源于此处 。 这次轮到谈其中和情感有关的侧面了 。 和以前一样 , 下面的描述是高度简化的 , 有兴趣或疑问的读者可以去看我们的论文甚至源程序 。

推荐阅读