> 自媒体 > (AI)人工智能 > 100万亿参数GPT-4将比GPT-3大500倍:它是实现AGI的最佳方式吗?
100万亿参数GPT-4将比GPT-3大500倍:它是实现AGI的最佳方式吗?
来源:deephub
2023-05-04 22:28:04
420
管理

OpenAI 的诞生是为了应对实现通用人工智能 (AGI) 的挑战——一种能够做人类能做的任何事情的人工智能。

正如我们所知,这样的技术将改变世界。如果使用得当,它可以使我们所有人受益,但也可能成为落入坏人之手的最具破坏性的武器。为确保每个人都能平等受益:“我们的目标是以最有可能造福全人类的方式推进数字智能。”,这就是 OpenAI 接手这个任务的原因。

然而,这个问题的复杂性使它可以说是人类已经投入的最大的科学事业。尽管计算机科学和人工智能取得了所有进步,但没有人知道如何解决它或它何时会成为现实。

有些人认为深度学习不足以实现 AGI。伯克利的计算机科学教授、人工智能先驱Stuart Russell认为,“专注于原始计算能力完全没有抓住要点[……]我们还不知道如何让机器拥有真正智能——即使它有宇宙的大小。”

相比之下,OpenAI 相信以大型数据集为基础并在大型计算机上训练的大型神经网络是实现 AGI 的最佳方式。 OpenAI 的首席技术官 Greg Brockman 在接受《金融时报》采访时表示:“我们认为,谁拥有最大的计算机,谁就会获得最大的收益。”

他们也是这么做的,开始训练越来越大的模型,以唤醒深度学习中隐藏的力量。朝这个方向迈出的第一个非微妙步骤是 GPT 和 GPT-2 的发布。这些大型语言模型将为节目的明星:GPT-3 奠定基础。一个拥有 1750 亿个参数比 GPT-2 大 100 倍的语言模型。

GPT-3 发布后是当时最大的神经网络,并且现在仍然是最大的神经网络。它的语言专长和无数能力令大多数人感到惊讶。尽管一些专家仍然持怀疑态度,但大型语言模型已经让人感到新奇。对于 OpenAI 研究人员来说,这是一个巨大的飞跃并且可以强化他们的信念并让我们相信 AGI 是深度学习的一个问题。

三位一体——算法、数据和计算机

OpenAI 相信扩展假设。给定一个可扩展的算法,在这种情况下是transformers——GPT 系列背后的基本架构——它可能有一条通向AGI的直接路径,该路径可以基于该算法训练越来越大的模型。

但大型模型只是 AGI 难题的一部分。训练它们需要大量的数据集和大量的计算能力。

当机器学习社区开始揭示无监督学习的潜力时,数据不再是瓶颈。这与生成语言模型和小样本任务迁移(few-shot task transfer)一起解决了 OpenAI 的“大数据集”问题。他们只需要使用大量的计算资源来训练和部署他们的模型就可以了。

这就是他们在 2019 年与微软合作的原因。作为可以在商业上使用 OpenAI 的一些模型的交换,OpenAI 换取了对微软云计算基础设施和他们所需的强大 gpu 的访问权。

但是 GPU 并不是专门为训练神经网络而构建的。游戏行业开发了这些用于图形处理的芯片,而人工智能行业只是利用了这些芯片对并行计算的适用性。 OpenAI 想要最好的模型和最好的数据集,GPU 还不够的,他们也想要拿到最好的计算机芯片。

许多公司也意识到了这一点,并开始构建内部专用芯片旨在训练神经网络,在节省成本的同事不会降低效率。然而,像OpenAI这样的纯软件公司很难将硬件设计和制造融为一体。这就是为什么他们采取了另一条路线:使用第三方 AI 专用芯片。

这时Cerebras Systems 出现了。这家芯片公司已经在 2019 年制造了有史以来最大的用于训练大型神经网络的芯片。现在他们和OpenAI 合作,又开始了新的研究。

WSE-2芯片和GPT-4模型

两周前,《Wired》杂志发表了一篇文章里面包含了两条重要消息。

首先,Cerebras再次制造了市场上最大的芯片,Wafer Scale Engine Two (WSE-2)。它大约22厘米,有2.6万亿晶体管。相比之下,特斯拉全新的训练芯片只有有1.25万亿晶体管。

Cerebras找到了一种有效压缩计算能力的方法,因此WSE-2有85万个核心(计算单元),而典型的gpu只有几百个。他们还用一种新颖的冷却系统解决了散热问题,并创建了高效的IO流。

像WSE-2这样的超级专业、超级昂贵、超级强大的芯片用途并不多。训练大型神经网络就是其中之一。所以Cerebras和OpenAI进行了对话。

这是第二条新闻:Cerebras首席执行官Andrew Feldman对《Wired》杂志表示:“从与OpenAI的对话来看,GPT-4将会有大约100万亿个参数。(……)但是发布的话可能还需要几年的时间。。。”

从GPT-3开始,人们就对OpenAI及其下一个版本充满了期待。现在我们知道它会在几年内问世,而且会非常大。它的尺寸将超过GPT-3的500倍。你没看错:500倍。

我们可以从 GPT-4 中期待什么?

100 万亿个参数很多。要了解这个数字有多大,让我们将它与我们的大脑进行比较。一般人类的大脑有大约 80-1000 亿个神经元和大约 100 万亿个突触。

GPT-4 将拥有与大脑具有突触一样多的参数。

将人工神经网络与大脑进行比较是一件棘手的事情。这种比较看似是公平的,但这只是因为我们假设人工神经元至少松散地基于生物神经元。最近发表在 Neuron 上的一项研究表明情况并非如此。他们发现至少需要一个 5 层神经网络才能够模拟单个生物神经元的行为。也就是说需要大约1000 个人工神经元才能够模拟一个生物神经元。

这么看来GPT-4还是没有达到我们大脑的水平,但是即使 GPT-4 没有我们的大脑那么强大,它也肯定会给我们带来惊喜。与 GPT-3 不同它可能不仅仅是一个语言模型。 OpenAI 的首席科学家 Ilya Sutskever 在 2020 年 12 月撰写有关多模态的文章时暗示了这一点:

“到 2021 年,语言模型将开始了解视觉世界。仅文字就可以表达关于世界的大量信息,但它是不完整的因为我们也生活在视觉世界中。”

我们已经在 DALL·E 中看到了其中的一些,它是 GPT-3 的较小版本(120 亿个参数),专门针对文本-图像对进行训练。 OpenAI 当时表示,“通过语言描述视觉概念现在已经触手可及。”

OpenAI 一直在不停地利用 GPT-3 的隐藏能力。 DALL·E 仅仅是 GPT-3 的一个特例,很像 Codex。但它们并不是绝对的改进更像是特殊情况。 而GPT-4 能够提供更多的功能。例如 DALL·E(文本图像)和 Codex(编码)等专业系统的深度与 GPT-3(通用语言)等通用系统的宽度相结合。

那么其他类似人类的特征呢,比如推理或常识?在这方面,Sam Altman说他们也无法确定,但他仍然“乐观”。

目前看来,问题还是很多但答案却很少。没有人知道 AGI 是否真的称为可能,也没有人知道如何建造它。没有人知道更大的神经网络是否会越来越接近它。但不可否认的是虽然可能还要等几年,但GPT-4 将是值得关注的东西,让我们拭目以待。

作者:Alberto Romero

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
关于作者
杨子(普通会员)
文章
365
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40328 企业收录2981 印章生成183581 电子证书777 电子名片48 自媒体19157

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索