2018年,Facebook关闭虚拟助手「M」,亚马逊Alexa产品发出怪笑,聊天机器人市场“事故频发”,究竟是谁扼杀了聊天机器人?
试想一下,一个静谧的午夜,你和家人正在熟睡,家中突然响起毛骨悚然的笑声,时远时近,这困扰了大人,惊吓了孩子 。 而这一切的怪笑,都是由Alexa发出的 。 作为Amazon的主推产品,Alexa这一动作让许多用户陷入恐慌之中 。
目前,亚马逊方面并没有对此次Alexa出现故障的原因进行详尽解释,并且它强调这是在“极少数情况”下才会发生的,尽管网上反映的问题代表不了 Echo的数千万用户,但可以看出亚马逊对此事的态度其实不以为意 。
类似的情况,在聊天机器人身上已经不是第一次发生 。 两年前,微软Twitter平台的聊天机器人Tay变成了“种族主义者”,不到一年,它的后续产品Zo又再次出现问题 。 Zo将古兰经称作“非常暴力”,并且它认为抓住本·拉登“不止一个政府多年情报收集”的结果 。
Zo发表的不宜言论
之前,Facebook关闭了虚拟助理「M」,团队相关成员分散到其他部门任职 。 聊天机器人的发展,道阻且长 。
智能机器人变成“人工智障”?
「我们可能都希望能生活在这样的世界里:和机器人有着最自然的对话,它将一切任务都执行得完美无瑕 。 这一路走来确实不容易,而且说实话我们已经发展得很快了 。 」Politibot的Suárez认为:「但不幸的是,我们还没有到那个理想的生活状态,还要好几年,机器人才能好到普罗大众都能接受 。 」
然而,现实却远不及Suárez的预期,聊天机器人依然存在着众多问题 。 2016年,Facebook Messenger开放其程序接口后,收到的用户反馈却远不及预期 。 众多机构确实可以在短时间内拥有自己的智能聊天机器人,但当此类机器人无人类干预时,这些机器人的应答失败率高达 70%,用户体验更是相当糟糕 。
从“图灵测试”到Eliza的精神治疗,聊天机器人发展至今已经走过了近70年,在漫长的发展历程中,聊天机器人并未得到真正的普及,现今依然存在着诸多弊病 。
是谁让聊天机器人变成了这样?智能相对论(ID:aixdlun)认为,是人类,更是机器本身 。 部分核心技术及适配性问题,依然是聊天机器人的阿喀琉斯之踵:
1.复杂语言识别困难
现代化聊天机器人的对话界面主要依赖于语音识别,从而根据用户命令做出便捷迅速的反应,比如“下午三点去参加会议”、“今天的天气怎样”等 。
语言作为一种主观性较强的表达方式,人们说话的规则具有一定的变化性 。 这和电脑程序不同,人们表达不会完全受制于规则,能够自由的遣词造句,并以此来传递信息 。 除了地方方言外,每个人也会有自己的表达方式,例如心照不宣的“暗语”,或者某些特定的“梗” 。 这就需要聊天机器人“去陌生化”,仅仅完美keyword/keyword地理keyword/keyword解结构化语言的系统将难以满足大量用户的需求,这对聊天机器人的系统提出了更高的要求 。
以Richard S.Wallac 设计的Alice聊天机器人为例,其在中文处理问题上,就存在一些问题 。 这是因为汉语不像英语等语言,用空格或其他标记分词,这就加大了ALICE对中文支持的难度 。 此外,其对于汉语分词采用的一般匹配法、词频统计法、同义句的处理等方面也存在着许多技术难题 。
“人工智障”般的聊天机器人
2.个性化适配之痛
个性化适配的问题体现在两个方面,一方面人机信任是聊天机器人个性化发展的一个重点攻坚点 。 调查显示,许多公司领导对于聊天机器人处理待办事项是并不看好的,聊天机器人程式化的语言会让许多人觉得“乏味”、“没有人气”,这也是公司助理一职并未被取代的原因 。
推荐阅读
- win7变成经典模式改不回来
- 对待爱情,最不一般的三个星座
- 兔子假死能装多久
- 猫从楼上摔下去怎么办
- 运势说丨桃花运来临,小心变成桃花劫
- 教你从饮食上预防癌症
- “县级市”变成“区”,是降级还是升级? 县级市和区哪个级别高
- 家长怎样教孩子把错误变成学习的大好机会
- 怎么把相片变成漫画
- 以人性本善为题的初一作文