全球近50亿网民,正在成为AI成人内容的受害者( 四 )


Discord的信任与安全团队 , 负责检查用户、版主或采访人员的报告 , 如果有人确实违反了社区准则 , 那就发出警告、删除内容、关停账号等 , 存在一定的被动性 。

全球近50亿网民,正在成为AI成人内容的受害者



Discord的社区准则 , 上为原文下为翻译
讽刺的是 , 把AI色图分享到Discord , 也会被AI模型网站的用户内部批评 , 不是问心有愧 , 而是因为这坏了规矩 , 有可能让社区被禁:“你可以在网站上创建它 , 但不能在这里分享 。”
甚至法律也不一定派上用场 , 就像Deepfake存在这么久了 , 美国只有几个州在为它立法 , 但因为杂乱无章 , 很难真正执行 , 并且有些创作者想尽办法隐藏身份 , 既然找不到人维权 , 很多时候受害者只能吃下哑巴亏 。
好在几个更加主流的文生图工具 , 用技术为技术事先附加了制约 。
OpenAI旗下的Dall-E , 尽可能减少了训练数据中的裸体图像 , 并且在实际使用过程中 , 阻止某些提示词的输入 , 以及在图片显示给用户之前扫描输出结果 。
Midjourney也有屏蔽词和人工审核 , 还计划推出更先进的、能够关联上下文的过滤功能 。
StableDiffusion背后的公司StabilityAI也曾回应过类似的问题 , “对任何开源代码所做的事情都是无法控制的” 。
尽管如此 , StabilityAI认为 , 识别此类行为并将其定为犯罪 , 还有很多事情可以做 , 开发者社区和互联网基础设施提供商也应该参与进来 。
简言之 , 对技术的规范就像钝刀子割肉 , 不能立刻起效 , 而AI色图的问题远比以前严重 , 靠的是一条运行顺畅的“生产链”:
提供训练图像的内容社区;
生成色图的开源技术;
将AI模型和图片商业化的平台;
自从Deepfake问世 , 我们就遇到了同样的问题 。人性难测 , 技术的普及和滥用只有一步之遥 , 工具更加容易上手了 , 商业模式也走通了 , 那么创建和分发色图的动力就更大了 。
很多时候 , 互联网的成人行业已经被“非人化”地看待 , 当真正非人的AI取而代之 , 继续满足刻板印象 , 可能导致物化更上一层楼 , 而不是停止物化 。
【全球近50亿网民,正在成为AI成人内容的受害者】就像《攻壳机动队》提出的问题那样 , 真实和虚假不再沟壑分明 。完全像你的人做出了你从来不会做的事 , 但你很难证明那不是你 , 数据就是你 , 存在过的痕迹就是你 。
每当AI被最先应用到色情产业 , 总有人说 , 这会加速技术普及 , 或者不再需要真人 。有人用金钱兑换欲望 , 有人不经意被投入技术熔炉 , 却没有谁会为伤害买单 。

推荐阅读