王者荣耀情侣网名带特殊符号 好听的情侣网名带特殊符号( 二 )


2017年生成情人节情话的神经网络AI , 对英语的训练经验为零 , 只能学习原始的那366条文字中的内容——而且 , 它还是不知道在某些组合中应该避免哪些字母 。
在2019年底-2020年的情人节 , JanelleShane尝试使用GPT-2来生成情话 。
在当时 , GPT-2算得上是自然语言处理领域的市面上最强AI , 参数超过15亿 , 爬取的训练文本相当于3.5万本《白鲸记》 , 在各种「预测给定文本后内容」的任务上有突出表现 。
虽然当时GPT-2还没有学习过关于情人节卡片的内容(尽管它可能已经在网上看到过卡片的列表) , 但Shane用talktotransformer给它添加了现有的心形糖果、情人节卡片上的情话内容数据 , 看它会输出什么 。
不过Shane知道 , GPT-2不是专门生成心形糖果情话的神经网络 。她所做的事有点像走到某人面前大喊「火辣好家伙!酷男!甜蜜情侣!给我打电话!魔法男孩!就算!」这些词汇的杂烩 , 任何真人听到这些都会感到迷茫 。
但其实 , 这和朝着神经网络AI喊「润滑剂」 , 并期望从AI运算结果里得到反馈 , 是差不多的事 。说实话大多数自然语言处理的实验都是这么无厘头 。
那这个神经网络AI知道它到底在做啥吗?应该是不知道的 。在GPT-2输出了一些全文大写的文字后 , 又会继续显示其他类型的文本 。从这些其它的文本 , 才能看出它到底想输出什么:
歌词
乐队名
动物有趣小知识
校园惨案记录
铃声曲调
即使给GPT-2一个线索 , 并在提示中标清楚 , 这是一些和情人节相关的信息 , GPT-2似乎仍然不知道自己在输出什么东西 。这类文本在它的训练数据中可能很少见 。
另一个线索是 , GPT-2生成的心形糖果情话通常都很长而且无厘头——它没有长度限制的概念 。比如如下:
插入困难 , 真的需要低密度鲟鱼
天佑不死队伍
火辣玩意 , 我的身体是
排出横溢之爱
舞场地板的面单
来自地穴的信息称看到你给我发朋友信息非常高兴
我想知道今天是几号
警惕我们的底层
如何穿得像只蝙蝠
美国海洋卷心菜愉悦
朱古力香蕉奶酪块
如此的话 , 我能请你吃饼干么
生成的长句糟糕 , 但在生成情话短句上 , GPT-2还是颇有斩获的 。比如还算甜蜜的有:
真心对待(HEARTEDTREAT)
恋爱号角(LOVINGHORN)
面包上起舞(DANCINGONALOAF)
诡异范的有:
蚂蚁能留下(ANTSCANSTAY)
完蛋了(DOOMED)
结局(THEEND)
生化污染物(BIOHAZARD)
鸡鸡万岁(ALLHAILTHECHICKEN)
猫猫乐队(KITTENBAND)
那就这样吧(SOBEIT)
成人双关范的有:
润滑油(LUBRICANT)
放气的咪咪(FARTBOOBY)
屁屁(BUTTOCK)
这些情话 , 简直是车祸现场啊……看来GPT-2也没有传说中的那么智能 。
JanelleShane现在把AI生成情话玩成一个年度仪式 。2021年 , 她用上了GPT-3 。
一般人们所说的「GPT-3」其实是一个不精确的笼统术语 , 它其实是一个用于OpenAI的API集合中不同的训练模型 。一般来说 , 大家指的是「达芬奇」 , 这是最强大的模型 。
Shane给最强模型「达芬奇」以下提示:
生成12条情人节心形糖果情话 , 最长10个字符 , 全部大写 。不要包含现有的心形糖果情话 。

推荐阅读