AI寒冬将至?行业大咖呼吁重启AI再出发( 四 )


如果这款软件和未受过训练的人对在线调查的反应一样准确 , 我认为法院在做决定时应该考虑到这一点 。 班尼特称:“当我们试图修复现有系统以最小化这种偏见时 , 关键是要对不同的数据集进行模型训练 , 以防止将来产生危害 。 ”由于错误模型的潜在风险遍布企业和社会 , 企业没有治理机制来监督不公平或不道德的决策 , 而这些决策将无意中影响最终消费者 。
对隐私日益增长的需求
我和班尼特都曾在雅虎工作过 , 我们与强大的研究和数据团队合作 , 能够在我们的平台上对用户的行为进行仔细研究 。 我们不断地研究用户行为 , 了解他们在音乐、主页、生活方式、新闻等众多属性方面的倾向 。 当时 , 对数据使用没有严格的标准或规定 。 隐私被降级为平台上用户被动遵守的协议中的条款和条件 , 与今天的情况类似 。
最近的剑桥分析公司滥用Facebook用户数据丑闻把个人数据隐私问题推到了风口浪尖 。 主要信贷机构(如Equifax)、最近的Facebook和Google +频繁发生的数据泄露 , 继续加剧了这一问题 。 2018年5月25日生效的欧洲《通用数据保护条例》(GDPR)将改变企业的游戏规则 , 特别是那些收集、存储和分析个人用户信息的公司 。 它将改变企业经营多年的商业规则 。 毫无节制地使用个人信息已经到了紧要关头 , 因为企业现在会意识到 , 数据的使用将受到重大限制 。 更重要的是 , 所有权之争更为激烈 。
我们看到了定位广告的早期效果 。 这个价值750亿美元的行业 , 预计到2021年将以21%的年复合增长率增长 , 但仍受到Facebook和谷歌的寡头垄断的阻碍 , 它们获得了大部分收入 。 现在 , GDPR加大了风险 , 让这些广告技术公司担负起更多责任 。 这种风险非常高 , 以至于(广告商)必须非常确定 , 你被告知的内容实际上是符合要求的 。 对于什么最终会构成违规 , 似乎存在着足够多的普遍困惑 , 人们对此采取了广泛的方法 , 直到你能够准确地了解合规 。
尽管监管最终会削弱营收 , 但至少就目前而言 , 移动和广告平台行业也正面临着越来越多的审查 , 这些行业多年来一直在从消费者身上赚钱 。 这一点 , 再加上围绕既定实践的审查 , 将迫使行业改变收集、聚合、分析和共享用户信息的方式 。 对隐私进行操作需要时间、重大投资以及心态上的改变 , 这些将影响企业政策、流程和文化 。
AI与伦理道德不可避免的结合
AI的普遍因素确保了社会效益 , 包括简化流程、增加便利性、改进产品和服务 , 以及通过自动化检测潜在的危害 。 在最后一点上妥协可能意味着 , 更容易依据更新的制造过程、服务和评估解决方案、生产和产品质量结果来衡量投入/产出 。 随着关于AI的讨论和新闻的持续 , “AI”这个术语和“伦理”的结合 , 揭示了越来越严重的担忧 , 即AI技术在哪些方面会造成社会损害 , 从而考验人类的良知和价值观 。
除了个人隐私问题 , 今天我们看到了一些近乎不合情理的创新例子 。 如前所述 , Rekognition被用于执法和公民监视 , 而该技术被认为是错误的 。 谷歌决定向美国国防部提供AI技术支持 , 用于分析无人机拍摄的视频 , 目标是帮助创建一个复杂的系统 , 在名为project Maven的项目中对城市进行监测 , 许多员工为此发起抗议 , 甚至不惜辞职 。

推荐阅读