Eleuther AI也表示,未来会进一步开源10B版本和原始大小版本的GPT3模型参数。
「莆田版」GPT-3
在Eleuther AI官网上,他们对GPT-Neo的描述是,「一系列基于变换器的语言模型的代码名称,这些模型的风格松散地围绕着GPT架构,我们计划对其进行训练和开源。我们的主要目标是复制一个GPT-3大小的模型,并将其免费开源给公众。」
在这一过程中,我们将对替代架构和注意力类型进行实验,发布任何中间模型,并在我们的博客上写出任何发现。
GPT-Neo模型是在Tensorflow-mesh中构建的,这将使他们能够使用同步的模型和数据并行来扩展到GPT-3和更大的规模。
据Eleuther AI称,他们已经建立了大部分的模型,训练了GPT-2大小的模型,并实施了几个实验性的架构。
目前的代码库应该能够扩展到GPT-3规模的模型。
而他们接下来的步骤,将是正在努力完成GPT-2规模的模型复制。
「到目前为止,2 们得到的单步训练的最大模型是200B参数。」
GPT3: 一般人玩不起
6月,OpenAI发表了一篇论文,详细介绍了GPT-3,这是一个机器学习模型,在一些自然语言基准上取得了强大的效果。在1750亿个参数——模型从历史训练数据中学习的部分——它是同类模型中最大的模型之一,也是最复杂的模型之一,能够进行原始类比,以某种风格写作,甚至完成基本代码。
与GPT-3的前身GPT-2和GPT-1相比,OpenAI选择不将模型或训练数据集开源,而是选择通过商业API提供前者。该公司选择将GPT-3独家授权给微软,进一步缩减了访问权限,而OpenAI与微软有业务关系。
微软已经向OpenAI投资了10亿美元,并建立了一台Azure托管的超级计算机,旨在进一步推动OpenAI的研究。
贫穷使人进(fu)步(ke)。
现在,一些人开始在开源中重新创建GPT-3,但可能目前最值得期待的就是GPT-Neo了。
关于Eleuther AI
Eleuther AI是一个由研究人员组成的草根集合,致力于开源人工智能研究。
Connor Leahy,Leo Gao和Sid Black三人联合创立,于去年11月宣布推出GPT-Neo的开源项目,该项目基于GPT系列的设计原理,旨在复现GPT系列的各种项目。
其中Sid是目前世界上最牛的TPU黑客之一。
不过,也有人也认为这伙人炒作太多!
「据我所知,他们正在大肆宣传他们无法兑现的夸大其词。」
「例如,他们在OpenAI宣布几天后就运出了一个DALL-E repo,这是坏的,而且由于他们的架构不能扩展,他们已经把他们的GPT-3复制宣称走回了复制1.5B。」
相关文章
猜你喜欢