若被AI看穿,我们怎么办?


若被AI看穿,我们怎么办?



小说《三体》中 , “三体人”不会撒谎、彼此思维和情绪完全透明的情节你也许并不陌生 。 随着人工智能(AI)情绪识别技术的发展 , 机器已经能识别人类情绪的变化 。 情绪识别正被越来越广泛地应用于机器智能中 , 也许有一天 , 人类会被AI彻底看穿 。
近日 , 中国台湾联合大学研究人员在IEEE ACCESS上发表论文 , 提出用特定连续动作间骨骼点速度的变化程度 , 来区分人类微妙情绪变化的新方法 。 该方法与时空图卷积网络(ST-GCN)相比 , “可有效地将识别精度提高50%以上” 。
别动 , 动就被看穿
“通过面部特征、语义与脑波分析来识别人类情绪的研究已经比较多了 , AI也能有效地识别出人类的情绪 。 我们试图提出一种新的情绪识别方式 , 可以让人们在不同场景下有更多选择 , 未来也可以通过多手段融合 , 更准确地进行情绪识别 。 ”论文第一作者、台湾联合大学助理教授蔡明峰在邮件中写道 , “基于Pose Net深度学习神经网络 , 我们提出时空变化图卷积网络(STV-GCN )技术 , 在进行情绪识别时 , 获得人体骨架关键点信息不受衣物、皮肤或肌肉等因素的影响 。 ”
在人工智能情绪识别领域 , 基于面部 , 语义或脑电波识别技术需要大量的训练样本 , 通过ST-GCN的连续运动来训练和识别人类行为模式 。 但是 , 该技术难以区分微妙的情绪变化 。 STV-GCN识别训练方法采用骨骼检测技术 , 计算连续动作之间的骨骼点变化程度 , 并使用特定算法对速度水平进行分类 , 以区分快速和细微的动作 。 该系统对相同动作不同速度的识别精度达到88.89% , 情绪状态的识别精度达到83.34% 。 在速度分类阶段和情绪状态分类阶段 , STV-GCN的准确率比ST-GCN提高50%以上 。
蔡明峰认为 , 在开放区域(如城市广场或交通系统)中 , 通过骨骼点变化进行情感识别 , 可以避免潜在的危险发生 。 系统可以主动识别具有特殊情绪状况(例如愤怒或悲伤)的人 , 并主动通知该区域的安全管理人员进行处理 。 由此可以在一定程度上避免暴力冲突或恶性伤害事件发生 。
AI“懂你”九分
“并非只有面部才有微表情 , 身体姿态也有 。 ”中国科学院自动化研究所研究员、模式识别国家重点实验室副主任陶建华告诉《中国科学报》 , “通过面部区域还是通过身体姿态来识别情绪其实各有优缺点 , 各有不同的适应场景 , 很难说谁比谁强 。 ”
很多时候,人们的表情和动作带有比语言更丰富的信息 。 在AI情绪识别领域,多数识别方法在分析面部表情的背景下进行,现实生活中 , 人们有时会通过语言和表情来掩饰自己的情绪,而肢体语言很难操纵, 相关的微表情很难掩饰 , 往往能传达出更细致、更真实的情感状态 。
陶建华介绍说 , 目前主要有两种AI情感识别方式 。 一是接触式 , 即利用人的生理特征(包括脑电、皮肤电、心率心跳)等的信号变化、以生理参数来分析人的情绪变化 。 人类情感变化时 , 会伴随着出现一些生理特征的变化 , 这些生理特征的细微变化可以反映出情绪波动 , 比如测谎就是利用这样的原理 。 二是非接触式 , 包括利用音频和视频信息 , 如利用声音的特点进行分析 , 或者依靠视频信息中 , 表情、头部姿态、身体姿势的变化来进行识别 。 非接触式有基于音频的 , 有基于视频的 , 也有将音视频方式结合起来进行的 。 情绪识别通常都采取模式识别 , 或模式分类的方法进行 。 “无论是传统的统计模型 , 还是现在基于神神经网络、深度神经网络的一些方法 , 都能取得比较好的结果” 。

推荐阅读