> 自媒体 > (AI)人工智能 > 重磅论文!与GPT-3差不多水平的1750亿大模型OPT开源了
重磅论文!与GPT-3差不多水平的1750亿大模型OPT开源了
来源:数据学习DataLearner
2023-04-11 13:51:53
387
管理

关注深度学习或者NLP的童鞋应该都知道openAI的GPT-3模型,这是一个非常厉害的模型,在很多任务上都取得了极其出色的成绩。然而,OpenAI的有限开放政策让这个模型的应用被限定在很窄的范围内。甚至由于大陆不在OpenAI的API开放国家,大家几乎都无法使用和体验。而五一假期期间,FaceBook的研究人员Susan Zhang等人发布了一个开源的大预言模型,其参数规模1750亿,与GPT-3几乎一样。

GPT-3的不开放使得很多研究人员无法对这个强大的模型进行进一步探索,而FaceBook这次开源的大模型表示其能力与GPT-3基本一致,并且向感兴趣的研究人员充分和负责地分享!该模型名称为OPT(Open Pre-trained Transformer Language Models),从名字上不仅与GPT-3差不多,但也突出了开放。目前开放的OPT版本包括如下几种:

从与GPT-3在14个任务的对比情况来看,OPT几乎与GPT-3的水平一致(下图分布是zero-shot与multi-shot对比结果):

目前OPT已经在Github上开源,除了最大的1750亿参数的模型需要填写申请以外,其它都可以直接下载。模型是pt(PyTorch的训练结果)。大家可以抓紧尝试!

除了模型本身的开放,FaceBook此次还在论文中公布了他们的训练的一些经验,包括学习速率的设置、硬件故障、损失收敛等问题,也都在论文中一一做了解释说明。

详情查看:开源版本的GPT-3来临!Meta发布OPT大语言模型! | 数据学习者官方网站(Datalearner)

2
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
关于作者
秋叶无痕(普通会员)
文章
640
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40369 企业收录2981 印章生成216707 电子证书945 电子名片57 自媒体34015

@2022 All Rights Reserved 浙ICP备19035174号-7
2
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索