联想个人云存储t2,PC&云储存(12)


2009年,Picard与人合伙创办了一家名为Affectiva的创业企业,专注于开发能感知情感的人工智能 。如今,该公司由另一位联合创始人、Picard实验室的前博士后研究员Rana el Kaliouby管理 。该公司有望成为汽车市场的佼佼者 。下一代的高端汽车不仅在硬件上有要求,在软件上更有要求,可以用来分析驾驶员的注意力及其他状态 。这种能力已经在半自动驾驶汽车上进行了测试,汽车软件必须做出明智的判断:当司机太过分心或心烦意乱、无法集中精力开车时,什么时候将控制权交给司机是安全的,或者何时接管比较好 。
Affectiva最初主要是通过面部表情检测情绪,但最近聘请了语音情绪检测领域的后起之秀Taniya Mishra 。她和她团队的目标是训练计算机来解释人类语言的情感内容 。毕竟我们使用的词语是表达自己感觉如何的重要线索,同时,我们也可以通过说话的音调、音量和节奏来表达自己的感受 。电脑已经可以记录下这些非语言特性 。但关键在于,教会智能设备人类本能直觉的东西:这些声音特征如何暗示我们当前的情绪 。
她告诉我,该领域最大的挑战是建立足够大以及足够多样化的语言数据库,以便计算机能够从中学习 。Mishra的团队从“野外”录音开始——即从网络上的视频中收集,或者由收集自然语音样本用于学术目的的非营利数据协会提供等等 。在埃及的开罗,一小队工作人员分析了讲话内容,并将其所传达的情感以及非词汇性的发音——嘟囔、笑声、停顿——标记出来,它们在揭示说话者的心理状态中扮演着重要的角色 。
对数据进行分类是一个缓慢而艰苦的过程 。三到五名工人必须就每个标签达成一致 。Mishra说,说话时长一小时,标记和分类时间多达20个小时 。不过变通的办法也是存在的 。一旦计算机中有足够多的人工标记的样本,而这些样本又具有特殊的声学特征——比如一阵愤怒,或者一阵悲伤——它们就可以开始自己标记样本,这个速度比人工扩展数据库的速度快得多 。随着数据库内容的增加,这些计算机将能够以越来越高的精确度识别听到语音中蕴含的情感内容 。
在研究的过程中,我很快就记不清有多少创业公司希望在这个领域使用基于语音的分析 。例如,旧金山的一家名为Ellipsis Health的公司为医生、社会工作者和其他护理人员开发了一种人工智能软件,该软件可以检查患者的讲话,以寻找抑郁和焦虑的生物标记 。Ellipsis Health的首席科学官Elizabeth Shriberg解释说:“情绪的变化,比如抑郁,与大脑的变化有关,而这些变化可能与运动指令有关,运动指令又能影响语音 。” Ellipsis Health的软件可能有很多应用 。例如,它可以用于常规的医生诊疗,比如年度体检(当然是在病人同意的情况下) 。
我希望机器设备无法识别出一些语言方面的东西,比如讽刺或讥诮 。但伦敦Imperial College London的人工智能教授、德国University of Augsburg“嵌入式智能”教授Bj?rn Schuller告诉我,他教会了机器设备识别讽刺 。他让机器设备同时分析语言内容和语调,这样它们就能发现词语和音调之间的差异,从而判断说话人的意思是否与所说的完全相反 。
作者:Roberto Parada
当然,检测情感之后的下一步自然是产生情感:训练人工智能设备生成情感的近似值 。一旦机器设备在分解我们讲话的情感成分方面变得颇有能耐,假以时日,它们的表现会有飞跃性提升,比如换位思考 。智能设备能够辨别并对用户的心态做出反应,由此可以创造出一种看似真实的亲近感,一种可以用于善或恶的纽带 。
Taniya Mishra期待着这种纽带的可能性 。她幻想着未来某天结束的时候可以对自己的汽车就所有出了问题的事情大声抱怨发泄——作为代步工具的汽车同时也是积极的听众 。她说:“汽车是不会开小差的 。一辆车不会说,‘哦,对不起,亲爱的,我得去做晚饭了,待会儿再听你的故事 。’”车身上搭载的智能设备会随着时间的推移跟踪她的情绪状态,然后在发现Mishra某一周的某一天会有这种感觉 。然后主动播放一曲Pharrell的歌,因为这首歌过去曾让她感到振奋 。从某种程度上说,这样的智能设备已经不仅仅是助手了,它们会成为伙伴 。

推荐阅读