> 自媒体 > (AI)人工智能 > 大白话带你看懂 GPT,用好 ChatGPT
大白话带你看懂 GPT,用好 ChatGPT
来源:火星洛克
2023-05-11 15:10:02
400
管理

近期各行各业已进入言必谈 ChatGPT 的阶段,大家津津乐道于 ChatGPT 的各种应用场景,比如怎么在自己的学习或工作中应用,提升效率。就连怎么跟 ChatGPT 提问对话,都发展出一门名为 Prompt Engineering 的新学科分支。

要最大程度地发挥 ChatGPT 的价值,就得对它的原理有一定的了解,这样就能知道它最适用的场景、目前的能力边界等。今天我就用大白话的方式,给大家分享下近期对它的研究和理解。

ChatGPT 和 GPT 是什么关系?

简单讲,ChatGPT 是一个产品,GPT 是一个 AI 领域的大语言模型(Large Language Model,简称 LLM)。

ChatGPT 提供了自然语言对话(Chat)的方式,与这个大模型进行交互,得到用户想要的答案。

而大语言模型,你只需要记住它是一种可以对自然语言(也就是平时我们说的各种语言,如中文、英文、日文等)进行处理的程序,它最厉害的地方在于能够基于前面给定的文字,预测接下来可能出现的文本内容。

比如平时你用手机输入法打字或百度搜索,输入“明天天气”,系统就会提示“明天天气怎么样”,就运用了类似的技术。只不过这里的大语言模型,它用来学习和训练的数据量要大非常多,对应的能预测生成的内容也多非常多,可以直接生成一整段话甚至一篇文章。

GPT 是什么意思?

GPT 的全称是生成式预训练转换器模型(Generative Pre-trained Transformer)。中文的翻译通常把 Transformer 略过不译,但这里的 Transformer 却恰恰是 GPT 区别于其它自然语言模型的最显著的地方。

Transformer,如果你经常看电影,会知道它也是「变形金刚」的英文。所以这里的 Transformer 你也可以把它理解为一种「变形转换器」,它可以把你输入的文字,转变成具备丰富维度信息的数学信息,以让计算机更好地理解,这样也就能输出与你的预期匹配度更高的内容。

生成式预训练,则表示这个模型,除了可以基于输入自动生成内容外,它的模型本身是经过提前训练的,而不是实时计算的。举个例子,你在考试前,会做 10 套真题,如果真正考试时,遇到你做过的或者类似的题目,你就可以运用相同的思路很快得出答案。你这个备考做真题的过程,就是「预训练」。而 GPT 与你备考的不同,则在于它训练的数据是海量的互联网数据。

Transformer 这个模型为什么厉害?

Transformer 模型是一种神经网络模型,它可以帮助计算机更好地理解语言,比如翻译句子或者回答问题。相比其他一些经典的神经网络模型(如 RNN、CNN),它的效果更好是因为它有一种自注意力机制(Self-Attention Mechanism)。

这个自注意力机制,可以让模型更好地“注意到”每个单词前后的内容,避免了「只见树木、不见森林」,进而提升对输入的理解程度,提升输出的匹配程度。

举个例子,假如你正在翻译一个句子,传统的方法是一次只翻译一个单词,但是 Transformer 模型可以一次性看到整个句子,然后根据句子中每个单词之间的关系,更好地翻译整个句子。这好比你在阅读一篇故事时,可以看到整个故事,更好地理解故事中的情节。当然实际的模型比这个要复杂得多,以上的例子只是为了便于理解。

另外,自注意力机制支持并行计算,在长内容、需要分步多次计算的处理上也很高效,类似于一个复杂的任务,可以更简单地分解为多个子任务同时进行,所以整体的效率也更高。

GPT 目前发展到什么阶段了?

GPT 的历史发展可以追溯到 2018 年,当时 OpenAI 发布了第一版 GPT 模型,它只有 1.17 亿个参数。后来,OpenAI 又陆续发布了 GPT-2 和 GPT-3 两个版本,今年 3 月 14 日,更是开始在 ChatGPT Plus 用户里,小范围提供 GPT-4 版本。

其中 GPT-3 模型拥有 1750 亿个参数,而 GPT-4 据说有超过一万亿的参数,是目前最大的自然语言处理模型之一。

GPT 的不足是什么?

看懂了 GPT 的原理,你也就不难理解它的不足之处了。

1. 耗资源、成本高

GPT 几个版本的迭代,越高的版本,参数量越高,训练数据越多,耗费的资源(金钱)也越多。比如 GPT-3 的训练成本就高达 4.6 亿美金,而 GPT-4 的具体数字还没有披露,但预测在 10 亿美金以上。这也意味着,这种能力的大模型,会控制在少数大公司或机构手中。

2. 强依赖于训练数据,在一些特定领域、常识方面会有不足

由于是预训练的模型,就好比考前做题,如果刚好遇到「没做过的题」,GPT 的弱点就暴露出来了。

目前 OpenAI 采用的是互联网上公开的数据,在知识的广度上,以及大部分知识的深度上,其实已经超过大多数普通人了。对于一些涉及伦理、种族的内容,它也会结合人工的方式来处理和纠偏。但对于一些常识的内容,它仍然有短板,比如下面的例子。

怎么最大化地用好 ChatGPT?

由于 ChatGPT 底层就是 GPT 模型,它本质上是基于你的输入来匹配一个「概率更高」的输出结果。因此如果你想要充分发挥 ChatGPT 的威力,就要尽可能让模型充分地理解你想要的内容,包括问题的具体要求、预期结果的展现形式等等。这好比找一个人咨询问题,如果你能更充分、明确地描述你想要的,那么就越容易得到结果。

这里分享一个@Rob Lennon 分享的模型,按这几个环节撰写指令,相信你会更容易得到想要的结果。

如果你想更快地抄作业,还可以参考这个开源库的指令示例合集 https://github.com/f/awesome-chatgpt-prompts/blob/main/prompts.csv,里面有大量的例子,相信对你一定有启发。

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
相关文章
情侣之间,学会这4种聊天方式,就会收获甜蜜爱情
现在我们在谈恋爱中的聊天,选对聊天方式事半功倍,选错聊天方式苦不堪言..
王炸!微软发布Visual ChatGPT:视觉模型加持ChatGPT实现丝滑聊天..
大数据文摘授权转载自夕小瑶的卖萌屋作者:炼丹学徒近来,AI领域迎来各个..
压力给到百度了,GPT- 4震撼发布!有4个惊喜,但仍有3个遗憾!..
一觉醒来,万众期待的GPT-4终于发布了,我们来看看他都有哪些迭代,给了..
为什ChatGPT会封禁亚太区域的账号
近日,人工智能平台ChatGPT的安全问题引起了高度重视。意大利政府暂时封..
36氪专访丨在开脑洞这件事上,ChatGPT还不是人类的对手..
在ChatGPT正日益变为“搜索”同义词的当下,你似乎只需要提出一个问题,..
开放内测|微信「ChatGPT」上线,混元大模型来袭!
随着ChatGPT的热度不断升高,国内多家大模型公司通过备案,陆续向全社会..
ChatGPT最强竞品重磅升级,免费可用!第一手实测在此
本人所撰写的文章仅在今日头条首发创作,不曾发布在其他平台,请勿搬运抄..
时评丨GPT-4成学术造假“神器”,还能“魔高一尺道高一丈”吗?..
人工智能技术的发展,也给科研论文的审核带来很大的困扰和难题。这两天,..
不一样的ChatGPT,Prompting技术范式一览
近几年,大语言模型的发展十分迅速。尤其是2022年 11 月底ChatGPT的发布..
关于作者
轻随风之舞..(普通会员)
文章
378
关注
0
粉丝
1
点击领取今天的签到奖励!
签到排行

成员 网址收录40329 企业收录2981 印章生成186597 电子证书794 电子名片49 自媒体20815

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索