> 自媒体 > (AI)人工智能 > Meta开源1750亿参数GPT-3,打脸OpenAI?网友点评:GPT-4都要来了
Meta开源1750亿参数GPT-3,打脸OpenAI?网友点评:GPT-4都要来了
来源:新智元
2023-05-01 22:03:19
413
管理

编辑:LRS

【新智元导读】OpenAI的GPT-3已发布两年,但还是只听说过,没见过。最近Meta复现了一遍GPT-3,改名OPT,把代码、权重、部署都开源了出来,并且还更环保,碳足迹仅为原版七分之一。

2020年,OpenAI放出了具有1750亿参数的预训练模型GPT-3,横扫文本生成领域,不仅能问答、翻译、写文章,还能做数学计算。

唯一的「美中不足」就是没开源,代码和模型看着眼馋,却到不了嘴边。

并且与微软签订了「独占协议」,公众只能通过付费API与模型进行交互,完整的研究访问授权仍然仅限于少数资源丰富的实验室。

直到Meta AI发布了一篇论文,直接复现了一遍GPT-3,效果不输原版,还全开源了出来,从代码、模型到部署,服务一条龙,从此1750亿参数全量GPT-3触手可得。

为了防止模型被滥用,Meta AI对于OPT-175B模型加了一个非商业许可,用户需要填写一个申请表,该模型的访问权限将授予学术研究人员;隶属于政府、民间社会和学术界组织的人员;以及世界各地的工业研究实验室。

论文链接:https://arxiv.org/pdf/1810.03993.pdf

发布日期:2022年5月3日发布OPT-175B

模型版本:1.0.0

模型类型:大型解码Transformer语言模型

不适用的用例:OPT-175B并非发布给生产使用或真实世界部署,OPT-175B和其他大型语言模型一样有多种缺陷,对于商业应用来说还为时过早。

评估数据的选择:除了在公开语言模型标准下评估外,Meta AI还在Hate Speech Detection, CrowS-Pairs, StereoSet等任务上对模型的偏见进行评估。

限制:与其他大型语言模型一样,训练数据的缺乏多样性会对模型的质量产生下游影响,OPT-175B在偏见和安全性方面受到限制。OPT-175B在多样性和幻觉(hallucination)方面也可能存在质量问题。总的来说,OPT-175B对现代大型语言模型的问题并不免疫。通过发放非商业许可证,Meta希望以此提高沟通、透明度,并研究大型语言模型的问题,特别是在不符合商业利益的领域。

数据卡片

训练数据在机器学习中有时比模型更关键,也会从根本上影响模型的行为、产生偏见等,所以记录模型的数据来源、使用方法就显得很重要。2018年,Timnit Gebru在arxiv上提出通过问答形式,为数据集进行建档,最终论文于2021年12月发表。

论文链接:https://arxiv.org/abs/1803.09010

下面为一些相对关键的数据问题。

动机:OPT-175B模型的预训练数据是由五个数据集(RoBERTa用到的三个数据集、Pile的子集以及Pushshift.io Reddit数据集)。创建这个数据库的目的是在广泛的文本语料库上构建预训练语言模型,重点是人工生成的文本。

数据集:

1. BookCorpus,由一万本未发表书籍构成

2. CC-Stories,包含CommonCrawl的一个子集,过滤条件为Winograd模式的story-like风格

3. The Pile包括Pile-CC, OpenWebText2, USPTO, Project Gutenberg, OpenSubtitles, Wikipedia, DM Mathematics, HackerNew

4. Pushshiftio Reddit数据集

5. CCNews V2包含一个更新版本的CommonCrawl News数据集

数据集大小:包括1800亿个Tokens,总计800GB的数据

样例是否包含raw data:是

样例是否包含label:否

数据切分:将200MB的预训练数据划分为验证集

数据收集参与者:数据由机器全自动挖掘、过滤和采样

数据预处理/清洗/标注流程:组件数据经过标准的清理和格式化实践,包括删除重复/非信息性文本,如「Chapter One」或「This ebook by Project Gutenberg」

用爱发电

进入预训练时代以后,AI模型的研发转为基于大公司开源的大规模语言模型。

但能否用上预训练模型,主要取决于大公司是否想做「慈善」,毕竟大模型的训练动辄就是成百上千个GPU,还得搜集海量的训练数据,还得给算法工程师开工资,曾经有人估算,想训练一次5300亿参数量模型的PaLM,光租卡就至少得花900万美元。

而本次OpenAI没有开放GPT-3,而是和微软站队,也是引起了大量从业者的不满,马斯克直言OpenAI跟open越走越远,网友也表示,还不如改名叫ClosedAI算了。

这种受限访问限制了研究人员对大型语言模型的理解和研究,也阻碍了提升鲁棒性、减轻模型偏见、毒性等已知问题的努力。

但如果都免费开源给社区,瞬间就会让大量的竞争对手占领相同的高地,所以开源大模型的行为实属「用爱发电」。

而本次OPT的发布,就属于用爱发电来打破垄断,斯坦福大学基础模型研究中心主任Percy Liang对此评价为:开启了语言模型研究的新机会。

总的来说,开源得越深入,就越能促进深层次问题的研究:

第一层:论文开放,证明一些想法的可行性,提供一些通用的思路;

第二层:API开放,研究人员能够探测、评估模型的能力(如推理)和限制(如偏见)

第三层:模型权重开放,允许研究人员增量改进模型,开发出可解释更好的技术、更有效的微调方法等;训练数据的开放,允许研究人员更好地理解训练数据在模型行为中的作用。

第四层:计算能力开放,允许研究人员尝试新框架,新的训练目标和过程,数据集消融,在不同领域内开发出全新的模型。这些尝试极其消耗计算资源,但也会对模型的理解和提升具有潜在价值。

越高层次的开放,带来的也是更多的风险和不确定性,所以不同的基础模型开发者对于开放策略也有不同的理解。

不过就算Meta把OPT-175B发到手里了,还是得先看看自己有没有16块Nvidia V100显卡。

参考资料:

https://github.com/facebookresearch/metaseq/tree/main/projects/OPT

1
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
相关文章
ChatGPT有没有被高估了?我们跟投资人聊了聊
风口财经记者 谢文倩近期,美国Open AI 公司旗下的AI聊天机器人ChatGPT火..
和 ChatGPT 聊了一晚上,居然有点感动
当你读到这篇体验记录时,AI 大战已经上演。ChatGPT 已经被微软嵌入到它..
测试结果证明ChatGPT能够进入原创性思维前1%的行列
蒙大拿大学及其合作伙伴的最新研究结果表明,根据一项标准的创造力测试,..
老黄20问OpenAI联合创始人:ChatGPT得益于数据爆发,让AI说“不知道”是难..
智东西作者 | 李水青编辑 | 心缘智东西3月23日报道,昨夜,在GTC大会主题..
聊天即可赚钱!大厂社交App陪聊灰产泛滥,被指诱骗男用户充值..
本文来源:时代财经 作者:谢斯临 图片来源:心遇App截图而如果用户以女..
聊天的奥秘:如何成为社交之王
大家好,我是马赛,今天我们将探讨的是一门终生学习的技能——聊天。无论..
ChatGPT 支持 Siri 和快捷指令,iPad 版本上线
6 月 8 日消息,ChatGPT iOS 客户端更新,更新后支持内容拖放,支持与苹..
曝光!女老师出轨20多人,聊天记录更是不堪入目。内情曝光!..
#头条创作挑战赛#在山西太原的一位女老师,被她的丈夫发现与一位体育老师..
我们向GPT-3问了15908个问题,终于发现了它的真面目
作者 | 陈大鑫、青暮当从静止状态放下一个球时,它会以9.8 m /s²的加速..
关于作者
兰花草(普通会员)
文章
355
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40329 企业收录2981 印章生成186856 电子证书796 电子名片49 自媒体20954

@2022 All Rights Reserved 浙ICP备19035174号-7
1
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索