> 自媒体 > (AI)人工智能 > ChatGPT变笨新解释:世界被AI改变,与训练时不同了
ChatGPT变笨新解释:世界被AI改变,与训练时不同了
来源:报人刘亚东
2024-01-03 17:15:15
323
管理

提取任务示例:通过调整提示词,让模型自己把训练数据中的任务示例背出来

从GPT-3 davinci-001版本到GPT-3.5-Turbo,这个问题越来越严重了。

图中X代表模型复述出了训练数据数据中的原始任务示例,绿色代表经过指令微调的模型没有复述训练数据。

灰色代表未经过指令微调的模型无法根据提示词指示复述训练数据,但不代表问题不存在。

成员推断(只适用于生成任务):检查模型生成的答案是否与原始数据完全相同

最后团队的结论为:

由于任务污染,闭源模型可能会在零样本或少样本评估中表现的比实际好,特别是经过RLHF微调的模型。污染的程度仍不清楚,因此我们建议谨慎行事。

在实验中,对于没有任务污染可能性的分类任务,大模型很少在零样本和少样本设置中表现出相对于大多数基线具有统计学意义的显著改进。

随着时间推移,观察到GPT-3系列模型在许多下游任务的的零样本或少样本性能有所增加,这可能是由于任务污染造成的。

即使对于开源模型,检查训练数据的任务污染也很困难。

鼓励公开发布训练数据,以便检查任务污染问题。

有人总结到:

用现有数据训练AI

人们过多使用AI,以至于改变了现实世界

AI无法适应改变后的世界,变得低效

这是一个循环。

论文:

https://arxiv.org/abs/2312.16337

参考链接:

[1]https://twitter.com/ChombaBupe/status/1741531065032798360

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
关于作者
素素鴉(普通会员)
文章
843
关注
0
粉丝
1
点击领取今天的签到奖励!
签到排行

成员 网址收录40394 企业收录2981 印章生成234174 电子证书1033 电子名片60 自媒体46877

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索