阿姆斯特丹自由大学人工智能研究院Frank van Harmelen表示 , “我认为‘骇人’这个词唯一能使用的领域是自主武器系统…那些看起来像机器人 , 也可能不像机器人的系统 。 任何自动决定生死的电脑系统 , 不管是人工智能还是非人工智能——例如发射导弹——都是非常可怕的想法 。 ”这种大胆预测背后的真相是 , 如果军事人工智能系统在分析形势时出错 , 会导致各国做出鲁莽的 , 甚至是灾难性的决策 。
三、机器人医生
虽然专家们大多同意人工智能在医学领域的应用益处良多 , 例如尽早诊断疾病 , 加快整体医疗体验 , 但一些医生和学者担心 , 我们可能会过快地朝着数据驱动的医疗实践方向发展 。 学者们还担心 , 人们对人工智能的期望过高 , 认为它可以形成人类的智力 , 从而解决各种各样的任务 。
爱丁堡大学的Bundy表示 , “到目前为止 , 所有的人工智能应用都非常成功 , 但应用范围很窄 。 ”Bundy还表示 , 这些期望可能会给医疗保健等行业带来可怕的后果 。 上周 , 一份引用了IBM内部文件的健康刊物发布了一份报告 。 该报告显示 , IBM旗下的沃森超级电脑已经提了许多“不安全且不正确的”癌症治疗建议 , 但该软件被训练成只处理假设场景下的少量病例 。
另一个令人担忧的问题是 , 计算机占用和共享的数据 , 以及使用这些数据实现应用程序自动化的数据驱动算法可能会侵犯患者隐私 。 事实证明 , 数据的存储以及分享是令人担忧的 。 以“深度思考”(DeepMind)为例 , 2015年 , 这家谷歌旗下的人工智能公司与英国国家医疗服务体系(NHS)签署了一项协议 , 获得了160万英国患者的健康数据 。 该协议意味着患者将他们的数据交给了公司 , 以提高其项目检测疾病的能力 。 这也催生了一款名为Streams的应用程序 , 该程序旨在检测肾病患者 , 并在患者病情恶化时提醒医生 。
然而去年 , 英国隐私监督部门信息专员办公室(ICO)裁定 , NHS和DeepMind之间的协议违背了数据保护法 。 ICO表示 , 作为协议的一部分 , 伦敦皇家自由医院在使用患者数据的方式上缺乏透明度 。
四、歧视
有些读者可能还会记得Tay , 一款由微软开发的人工智能聊天机器人 , 它在两年前引起了轰动 。
这个机器人有一个推特账号 , 一些用户用了不到一天时间训练它发表攻击性的推特 , 来支持阿道夫?希特勒和白人至上的观念 。 这个错误迫使微软注销了该账号 , 这一事件也引发了激烈的讨论 , 即人工智能有存在歧视的可能性 。
Walsh表示 , 歧视是科技带来的一系列“意想不到的后果”之一 。 他说:“我们在计算程序中看到了意想不到的偏见 , 尤其是机器学习 , 这种偏见有可能导致种族、性别歧视 , 而在过去的50多年里 , 我们一直试图将这些偏见从我们的社会中消除 。 ”
专家表示 , 这个问题涉及到把人工智能变成一个客观、理性的思考者 , 不偏袒某一特定种族、性别 。 这是研究人员和开发人员一直在认真考虑的问题 。
IBM甚至有研究人员致力于解决人工智能领域的歧视问题 。 今年早些时候 , IBM表示将发布两个数据集 , 包含不同肤色的面部和其他面部特征 , 以减少人工智能面部识别系统的偏见 。
推荐阅读
- 不开花的植物图片名称
- 板栗南瓜能留种子吗
- 关于草莓的知识
- 关于爱鸟护鸟的提示语
- 关于月亮的谜语有哪些
- 关于端午节的传说 端午节的来历 传说
- 关于春节的成语
- 洪武瓷器特点是什么
- 关于幸福的24则经典名言 幸福的格言
- 这些关于春节的年俗 新年的习俗