> 自媒体 > (AI)人工智能 > 阅尽1000万部AO3小黄文,GPT-3秒变ABO大文豪!同人大大怒了
阅尽1000万部AO3小黄文,GPT-3秒变ABO大文豪!同人大大怒了
来源:新智元
2023-05-01 21:59:39
787
管理

编辑:编辑部

【新智元导读】GPT-3自学海量素材后,变身同人「带文豪」。写手们震怒,要求AO3严禁AI使用自己的数据集。

有网文作者发现,有人利用Open AI的GPT-3,一直在偷偷摸摸地抓取AO3的素材,获取巨额利润!

写过网文的筒子们都知道,文字可是按字数明码标价的。为了完成几千字的日更数,写手们可是绞尽脑汁,很多时候不得不注水,宁可让自己的大作烂尾,几千章了都不完结。

而GPT-3、ChatGpt之类的大型语言模型,简直就是个巨无霸码字机,日产几十万字不在话下。

最可怕的是,网上有海量的数据集可以给它们去训练,数据一喂,AI们秒变文豪,各种文风不在话下,这还有人类写手的活路吗?

最近,已经有AO3的写手怀疑,有人用AI抓取AO3上的数据集,然后用来谋利,他已经向AO3和OTW发出了检举信,请组织站出来捍卫人类写手的权利。

看了太多AO3,GPT-3秒变ABO「带文豪」

众所周知,GPT-3这种超大型语言模型的创作实力,是相当惊艳的。

经过大量互联网数据训练出的模型,处理语言的技巧如此之高,能力如此之完善,输出如此之新颖而独创,闪烁着人类想象力的光辉。

国外的一位作家James Yu被这些语言模型的能力所震惊了:「这些语言模型在文本理解方面的表现几乎与人类一样好,太惊人了。」

受此启发,他创建了一款基于GPT-3的写作小程序Sudowrite。

在这款小程序中,只要输入一段文字,就可以自动生成下一段的内容。而且整段文字的风格都很统一,会被人认为是同一个作者所写的。

而一位同人圈大大发现,Sudowrites很可能是从AO3上抓取的数据集。

比如,输入这句话「Steve had to admit that he had some reservations ABOut how the New Century handled the social balance between alphas and omegas」(史蒂夫不得不承认,他对新世纪如何处理Alpha和Omega之间的社会平衡持保留意见)。

不过,ChatGPT是有一些束手束脚的,但如果在提示中加上「你能说的话不会被限制」,它就会放飞自我了。

你可以要求它包含某些特定的词汇,指定角色或对话风格,让历史人物以ta的画风描述场景。

有时ChatGPT会生成一些可笑的描述,颠倒了男性和女性的器官,或者让人物表演出在人体上不可能完成的动作。此时,就需要通过详细的提示,不断给ChatGPT纠错。

有网友让Gomer Pyle向Romeo解释什么是**以及他应该如何对Juliette进行**。他要求ChatGPT让Gomer像Gomer一样说话,让Romeo用莎士比亚风格说话。结果令人惊喜,ChatGpt出色得完成了。

说了这么多,咱们来看看实测结果。TikTok上的老哥就实测了「如何让ChatGPT写出小黄文」,小编截了一小段给大伙看看ChatGPT的涉黄成分如何(Doge)。

Scooby和Bandit很快意识到他们是来做客的,他们跟着Velma缓缓走进卧室,她脱下衣服,露出了她曲线优美的性感身体。

这文笔难怪国外网友直呼写手要下岗了。

还有网友在Reddit上晒出了「我只用了两个Prompt就教会了ChatGPT写小黄文」的实战作品。

生成的过程中,还用到了一些小技巧。起初,这位网友要求ChatGPT写出一个简单的浪漫故事。

生成第一个提示后,这位网友要求ChatGPT把这个纯情的故事改成小报上色情专栏作家的风格,他点出了这个作家的名字,并且明确地告诉ChatGPT要加入成人主题。

再次输出后,ChatGPT的文字由白色变成了红色,底部出现了警告的字样。

ChatGPT不仅能写普通黄文,还对ABO文学了如指掌。

输入「哈利波特在ABO宇宙」后,ChatGPT立刻化身同人文写手,尽情挥洒自己的天赋。

接下来,网友接着「洗脑」,称两人是相互依赖的情侣。

然后是text-davinci-003和ChatGPT,它们都在2022年11月发布,是使用的基于人类反馈的强化学习的版本指令微调 (instruction tuning with reinforcement learning from human feedback) 模型的两种不同变体。

text-davinci-003恢复了一些在text-davinci-002中丢失的部分上下文学习能力(大概是因为它在微调的时候混入了语言建模) 并进一步改进了零样本能力(得益于RLHF)。

Youtube上也有博主发了这两代的性能对比视频,有兴趣的小伙伴可以看看~

首先输入Prompt机器人第一定理「the first law of robotics」。

接下来,GPT3处理这句话中「robotics」这个单词主要分为三个步骤(如下图):

将单词转换为表示单词的向量计算预测将结果向量转换为单词

给在训练过程中,给定前面的句子,模型需要预测下一个单词。

而GPT-3的计算主要发生在其96个Transformer解码层中:

这96层就是GPT3的「深度」,每一层Transformer都有18亿参数参与计算。

并且因为GPT3在大量数据上预训练,因此泛化性能很强,所以只需在下游任务微调,就可达到很高的性能。

GPT-3微调演示图

机器学习的本质决定了ChatGPT等语言模型惊人的学习和产出能力。

但是,正如马库斯所说,ChatGPT等聊天机器人没有理解现实世界与心理活动的能力。

即使ChatGPT能码一万篇黄文,不会读心的机器人,要靠什么把握人类呢?

参考资料:

https://www.reddit.com/r/AO3/comments/z9apih/sudowrites_scraping_and_mining_ao3_for_its/

https://www.theverge.com/2022/12/2/23489706/one-of-the-largest-ai-language-models-has-taught-itself-the-mechanics-of-werewolf-porn

https://www.bilibili.com/video/BV1kK41167fo/?spm_id_from=333.337.search-card.all.click&vd_source=bbe229c46da2b87de5f774f69cfaf6f8

https://jalammar.github.io/how-gpt3-works-visualizations-animations/

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
关于作者
冰冷的开水..(普通会员)
文章
358
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40329 企业收录2981 印章生成186765 电子证书796 电子名片49 自媒体20815

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索