联想个人云存储t2,PC&云储存(11)


为了说明和验证自己的观点,他在自己的电脑上敲出一行字:“订一张6月31日的机票 。”
Google Assistant回复道:“6月只有30天 。”
“是不是自然多了?” Giangola说道 。
让说话的节奏慢下来是至关重要的,但要创造出一个应付得体的交谈者是远远不够的 。机器人也需要良好的氛围 。当Giangola在训练Emma Coats为Google Assistant录制配音时,他给了她一个背景故事,以帮助她产生自己想要的那种乐观的气质 。故事的背景非常具体:她来自科罗拉多州——这个州的口音不太独特 。“她是一位研究图书管理员和一位拥有Northwestern University艺术史学士学位的物理学教授的小女儿”,Giangola继续说,“小时候,她在《Jeopardy: Kids Edition》节目上赢得了10万美元 。她曾经是‘一个非常受欢迎的讽刺评论家’的私人助理,而且喜欢划皮艇 。”
一位持怀疑态度的同事曾经问Giangola :“怎么样才能一个人听起来像是喜欢划皮艇?”在试演过程中(数百人试演了这个角色),Giangola转向质疑者说:“刚才试演的那个候选人——你觉得她听起来精力充沛好像要去划皮艇吗?”他的同事承认并没有 。“我说,额,那好吧 。”
但是过于现实的声音可能可能会引起麻烦——至少现在是这样 。今年5月,谷歌在年度开发者大会上公布了使用尖端语音合成技术的Duplex系统 。为了证明自己取得的成就,该公司播放了由Duplex系统给预先未告知的的人打电话的录音:它用女性的声音在发廊预约,用男性的声音询问预订餐厅 。Duplex系统滔滔不绝——其间还夹杂着“嗯嗯啊啊”的停顿声,而两个接电话的人都没有意识到自己是在和一个职工能说话 。
许多评论人士认为谷歌播放那两段录音是个错误 。因为Duplex不仅违背了人工智能不应该假装成人的限制,也违背了我们的信任 。我们不一定总能意识到自己身边的声控设备对我们的心理影响有多大,但至少我们选择了这种关系 。而Duplex作为一个具有欺骗能力的人工智能显现出了惊人的效果 。之后,谷歌表示Duplex在应用中是会向交流者表明自己的身份的 。但是,即使谷歌遵守自己的诺言,同样欺骗性的语音技术已经被开发出来 。而新开发的技术会不会被用在违法犯罪上就很难说了 。人工声音和真实声音之间的界线正在逐渐消失 。
从检测情感到产生情感
当然,最能引起共鸣的对话者是那种能理解你声音所传达的情感,并做出相应回应的人——而且在回应之时能够表达出微妙的情感 。尽管我们的智能声控设备还不能完成这两件事,但是语音分析情感的系统已经存在了 。情感检测——面部、身体和声音——由麻省理工学院(MIT)的工程学教授Rosalind Picard于20年前首创,她将这一领域命名为“情感计算” 。“那时候,”她告诉我说,“情绪与非理性有关,而非理性不是工程师喜欢的特质 。”
Picard是一位温文尔雅、机智诙谐的女性,她负责着情感计算实验室,这是麻省理工学院(MIT)那些欢乐古怪的实验室中的一个 。Picard解释说,大多数人工智能研究与她所做的研究的区别在于,传统的研究侧重于“名词和动词”——即行动或话语的内容,而她对“副词”更感兴趣——即所表达的感情 。“你知道,我可以用很多不同的方式接电话 。我可以用一种剧烈的、愤怒的、急促的动作抓起电话,也可以带着快乐、充满爱的期待拿起电话,” Picard告诉我 。如果一台机器想要理解人类给彼此的微妙暗示,那么关注那些手势中暗含的意味是很重要的 。一个简单的动作,比如点头,就能传达出不同的意思——我可以用一种活泼快乐的方式点头,也可能在用一种悲伤的方式点头 。

推荐阅读