谷歌4,小米2S和谷歌4到底哪个好啊?( 二 )


在另一项测试中,《连线》上传了20张黑猩猩和大猩猩的照片,这些黑猩猩和大猩猩来自非营利组织“黑猩猩天堂”和“黛安 · 福西研究所”(Diane Fossey Institute) 。有些猩猩可以用使用“森林”、“丛林”或“动物园”等关键词来搜索到,但事实证明,其余的都很难被发现 。
结论是:在谷歌照片中,狒狒是狒狒,但猴子不是猴子 。大猩猩和黑猩猩是不可见的 。
智能手机上的谷歌Lens应用,也无法识别出来大猩猩 。
在第三次测试中,《连线》杂志上传了一组1万多张用于面部识别研究的图片 。用“非洲裔美国人”这个词进行搜索,最后只出现了一幅羚羊的画面 。输入“黑人男性”、“黑人女性”或“黑人”,谷歌的系统会返回黑白图像,按照性别正确排序,但不被种族过滤 。对于肤色较深的人来说,可以使用“非洲式”(afro)和“非洲人”(African)等词进行搜索,尽管结果好坏参半,并不那么准确 。
谷歌的一位发言人证实,在2015年的事件发生后,"大猩猩"就从搜索和图片标签中删除了,直到今天"猩猩"、"黑猩猩"和"猴子"等标签仍在屏蔽中 。该发言人在电子邮件中写道:“图像标签技术还处于早期阶段,但不幸的是,它还远远不够完美 。”他强调了谷歌照片的一个功能,即允许用户报告错误 。
谷歌对大猩猩图片的谨慎处理,说明了现有的机器学习技术上的一个不足之处 。有了足够的数据和计算能力,软件就可以被训练,可以用来对图像进行分类,或者在较高的精确度下对语音进行转录 。但它无法轻易超越这种从训练中得出的经验 。即使是最优秀的算法,也缺乏像人类那样运用常识或抽象概念的能力,来完善它们对世界的诠释 。
因此,机器学习工程师在现实世界中部署他们的成果时,必须对他们的训练数据中没有发现的“边缘案例”保持警惕 。维吉尼亚大学教授维恩特·奥达尼斯·罗梅恩(Vicente ord ez rom n)说:“你的系统一旦开始上线运行,你就很难再对它进行建模 。”去年,他参与了一项研究,该研究表明,应用于图像的机器学习算法可以识别并放大人们对不同性别之间的偏见 。
谷歌照片用户上传的照片是在各种不完美的条件下拍摄的 。考虑到数据库中的图片数量,将一种类型的“类人猿”误认成另一种类型的可能性极小 。
谷歌母公司Alphabet和更广泛的科技行业面临着更大的风险,比如应用在自动驾驶汽车上 。罗曼(Román)和他的同事、软件可靠性专家拜沙希·雷(Baishakhi Ray)一起,正在探索如何限制视觉系统在自动驾驶汽车等场景中可能的误判行为 。雷说,这方面已经取得了一些进展,但目前还不清楚如何能够很好地控制这些系统的局限性 。“我们仍然不能非常具体地知道这些机器学习模型正在学习什么,”她说 。
谷歌的一些机器学习系统被允许在公开场合使用大猩猩照片进行检测 。该公司的云计算部门为企业提供了一项名为云视觉(Cloud Vision) API的服务来构建他们自己的项目 。当《连线》杂志用大猩猩和黑猩猩的照片对在线演示进行测试时,它同时识别出了这两张照片 。
例如,一只成年大猩猩抱着双胞胎宝宝的照片被谷歌的云视觉服务贴上了“西部大猩猩”的标签,其信心指数为94% 。系统会在相关的标签上返回一个最佳猜测列表 。“哺乳动物”和“灵长类动物”的得分也达到了90%甚至更多 。
谷歌向企业提供的云计算图像识别服务可以自由地称大猩猩为大猩猩 。
谷歌的Assistant也可以自由地将大猩猩称为“大猩猩” 。在安卓手机上,谷歌Assistant可以被召唤去尝试解释手机屏幕上的内容 。当被要求识别“一只成年大猩猩抱着双胞胎宝宝”的照片时,谷歌Assistant给出的建议是“山地大猩猩” 。

推荐阅读