> 自媒体 > (AI)人工智能 > ChatGPT的胜利,是概率论的胜利,也是贝叶斯定理的胜利
ChatGPT的胜利,是概率论的胜利,也是贝叶斯定理的胜利
来源:知识分子
2023-04-16 09:57:33
293
管理

4.7

知识分子

The Intellectual

于2022年底问世的ChatGPT,震撼了互联网。不由得使人联想起2016年初的AlphaGo,挑战人类顶级围棋大师李世石的故事。我在2017年出版的一本概率科普书中【1】,对当年人工智能的状况稍有描述,那算是AI的第二次革命,深度机器学习和自然语言处理(NLP)刚起步。没想到短短几年过去,第三次AI浪潮滚滚而来,基本搞定了自然语言的理解和生成难题,以 ChatGPT 发布为里程碑,开辟了人机自然交流的新纪元。

更新后的后验概率P(A|H) = 0.82,然后,再抛一次,又得到正面(H),两次正面后新的更新值是P(A|HH) = 0.69,三次正面后的更新值是P(A|HHH) = 0.53。如此抛下去,如果4次接连都得到正面,新的更新值是P(A|HHHH) = 0.36。这时候,这位观察者对这枚硬币是公平硬币的信任度降低了很多,从信任度降到0.5开始,他就已经怀疑这个硬币的公平性,接连4个正面后,他更偏向于认为该硬币很可能是一枚两面都是正面的假币!

从上面几个例子,我们初步了解了贝叶斯定理及其简单应用。

贝叶斯定理的意义

贝叶斯定理是贝叶斯对概率论和统计学作出的最大贡献,但在当年,贝叶斯的“逆向概率”研究和导出的贝叶斯定理看起来平淡无奇,未引人注意,贝叶斯也名不见经传。如今看来完全不应该是这样,贝叶斯公式的重要意义,是如例3所示的那种探知未知概率的方法。人们首先有一个先验猜测,然后结合观测数据,修正先验,得到更为合理的后验概率。这就是说,当你不能准确知悉某个事物本质时,你可以依靠经验去对未知世界的状态步步逼近,从而判断其本质属性。实际上,它的思想之深刻远出一般人所能认知,也许贝叶斯自己生前对此也认识不足。因为如此重要的成果,他生前却并未发表,是他死后的1763年,才由朋友发表的。后来,拉普拉斯证明了贝叶斯定理的更普遍的版本,并将之用于天体力学和医学统计中。如今,贝叶斯定理更是当今人工智能中常用的机器学习之基础框架【3】。

贝叶斯定理与当时的经典统计学相悖,甚至显得有些“不科学”。因此它多年来一直被雪藏,不受科学家待见。从上一节例3可见,贝叶斯定理的应用方法是建立在主观判断的基础上,先主观猜测一个值,然后根据经验事实不断地修正,最后得到客观世界的本质。实际上,这正是科学的方法,也是人类从儿童开始,认知世界(学习)的方法。所以可以说,近年来人工智能研究的兴旺发达,关键之一是来自于经典计算技术和概率统计的“联姻”。而其中的贝叶斯公式概括了人们学习过程的原则,如果配合上大数据的训练,便有可能更确切地模拟人脑,教会机器“学习”,便能加速AI的进展。从目前情况看,也正是如此。

机器如何学习?

教机器学习,学些什么呢?实际上就是要学会如何处理数据,这也是大人教孩子学会的东西:从感官得到的大量数据中挖掘出有用的信息来。如果用数学的语言来叙述,就是从数据中建模,抽象出模型的参数【4】。

机器学习的任务,包括了“回归”、“分类”、等主要功能。回归是统计中常用的方法,目的是求解模型的参数,以便“回归”事物的本来面目。分类也是机器学习中的重要内容。将事物“分门别类”,也是人类从婴儿开始,对世界认知的第一步。妈妈教给孩子:这是狗,那是猫。这种学习方法属于“分类”,是在妈妈的指导下进行的“监督”学习。学习也可以是“无监督”的,比如说,孩子们看到了“天上飞的鸟、飞机”等,也看到了“水中游的鱼、潜艇”等,很自然地自己就能将这些事物分成“飞物”和“游物”两大类。

贝叶斯公式也可以用来将数据进行分类,下举一例说明。

假设我们测试了1000个水果的数据,包括如下三种特征:形状(长?)、味道(甜?)、颜色(黄?),这些水果有三种:苹果、香蕉、或梨子,如图2所示。现在,使用一个贝叶斯分类器,它将如何判定一个新给的水果的类别?比如说,这个水果三种特征全具备:长、甜、黄。那么,贝叶斯分类器应该可以根据已知的训练数据给出这个新数据水果是每种水果的概率。

首先看看,从1000个水果的数据中,我们能得到些什么?

1. 这些水果中,50%是香蕉,30%是苹果,20%是梨子。也就是说,P(香蕉) = 0.5,P(苹果) = 0.3,P(梨子) = 0.2。

2. 500个香蕉中,400个(80%)是长的,350个(70%)是甜的,450个(90%)是黄的。也就是说,P(长|香蕉) = 0.8,P(甜|香蕉) = 0.7,P(黄|香蕉) = 0.9。

3. 300个苹果中, 0个(0%)是长的,150个(50%)是甜的,300个(100%)是黄的。也就是说,P(长|苹果) = 0,P(甜|苹果) = 0.5,P(黄|苹果) = 1。

4. 200个梨子中,100个(50%)是长的,150个(75%)是甜的,50个(25%)是黄的。也就是说,P(长|梨子) = 0.5,P(甜|梨子) = 0.75,P(黄|梨子) = 0.25。

以上的叙述中,P(A|B)表示“条件B成立时A发生的概率”,比如说,P(甜|梨子)表示梨子甜的概率,P(梨子|甜)表示甜水果中,梨子出现的概率。

图2:贝叶斯分类器

所谓“朴素贝叶斯分类器”,其中“朴素”一词的意思是说,数据中表达的信息是互相独立的,在该例子的具体情况下,就是说,水果的“长、甜、黄”这三项特征互相独立,因为它们分别描述水果的形状、味道和颜色,互不相关。“贝叶斯”一词便表明此类分类器利用贝叶斯公式来计算后验概率,即:P(A|新数据) = P(新数据|A) P(A)/ P(新数据)。

这儿的“新数据” = “长甜黄”。下面分别计算在“长甜黄”条件下,这个水果是香蕉、苹果、梨子的概率。对香蕉而言:

P(香蕉|长甜黄) = P(长甜黄|香蕉) P(香蕉)/ P(长甜黄)

等式右边第一项:P(长甜黄|香蕉) = P(长|香蕉) * P(甜|香蕉) * P(黄|香蕉) = 0.8*0.7*0.9 = 0.504。

以上计算中,将P(长甜黄|香蕉)写成3个概率的乘积,便是因为特征互相独立的原因。

最后求得:P(香蕉|长甜黄) = 0.504*0.5/ P(长甜黄) = 0.252/ P(长甜黄)。

类似的方法用于计算苹果的概率:P(长甜黄|苹果) = P(长|苹果)*P(甜|苹果) * P(黄|苹果) = 0*0.5*1 = 0。P(苹果|长甜黄) = 0。

对梨子:P(长甜黄|梨子) = P(长|梨子)*P(甜|梨子) * P(黄|梨子) = 0.5*0.75*0.25 = 0.09375。P(梨子|长甜黄) = 0.01873/ P(长甜黄)。

分母:P(长甜黄) = P(长甜黄|香蕉) P(香蕉) P(长甜黄|苹果) P(苹果) P(长甜黄|梨子) P(梨子)= 0.27073

最后可得:P(香蕉|长甜黄) = 93%

P(苹果|长甜黄) = 0

P(梨子|长甜黄) = 7%

因此,当你给我一个又长、又甜、又黄的水果,此例中曾经被1000个水果训练过的贝叶斯分类器得出的结论是:这个新水果不可能是苹果(概率0%),有很小的概率(7%)是梨子,最大的可能性(93%)是香蕉。

深度学习的奥秘

再看看,孩子们是如何学会识别狗和猫的?是因为妈妈带他见识了各种狗和猫,多次的经验使他认识了狗和猫的多项特征,他便形成了自己的判断方法,将它们分成“猫”、“狗”两大类。科学家们也用类似的方法教机器学习。比如说,也许可以从耳朵来区别猫狗:“狗的耳朵长,猫的耳朵短”,还有“猫耳朵朝上,狗耳朵朝下”。根据这两个某些“猫狗”的特征,将得到的数据画在一个平面图中,如图3b所示。这时候,有可能可以用图3b中的一条直线AB,很容易地将猫狗通过这两个特征分别开来。当然,这只是一个简单解释“特征”的例子,并不一定真能区分猫和狗。

图4:更多的特征需要更多的参数来识别

判别式和生成式

在机器学习中的监督学习模型,可以分为两种:判别式模型和生成式模型。从前面的叙述我们明白了机器如何“分类”。从这两种学习方式的名字,可以简单地理解为:判别式模型更多是考虑分类的问题,而生成式模型是要产生一个符合要求的样本。

图5:判别式和生成式的区别

还用识别“猫狗”的例子,用妈妈教孩子来打比。妈妈给孩子看了很多很多猫和狗样本之后,指着一只猫问孩子,这是啥?孩子回忆后作出判断“是猫”,这就是判别式。孩子答对了很高兴,自己拿起笔,在纸上画出一个脑海中猫的形象,这就是生成式了。机器的工作也类似,如图5所示,判别式中,机器寻找判别需要的分界线,以区分不同类型的数据实例;生成式模型则可以区分狗和猫,最后画出一只“新的”动物照片:狗或猫。

用概率的语言:设变量Y代表类别,X代表可观察特征。判别模型是让机器学习条件概率分布P(Y|X),即在给定的特征X下类别为Y的概率;生成模型中机器对每一个“类别”都建立联合概率P(X,Y)的模型,因而可以生成看起来像某种类型的“新”样本。

例如,类别Y是“猫、狗”(0,1),特征X是耳朵的“上、下”(1,2),假设我们只有如图所示4张照片:(x,y)= {(1,1),(1,0),(2,0),(2,0)}

图6:判别式和生成式建模的区别

判别式由条件概率P(Y|X)建模,得到分界线(左下图中的红色虚线);生成式由联合概率P(X,Y)为每种类别建模,没有分界线,但划分了每个类型在数据空间的位置区间(右下图中的红色圆圈)。两种方法根据不同的模型给出的概率来工作。判别式更简单,只在乎分界线;而生成式模型要对每个类别都进行建模,然后再通过贝叶斯公式计算样本属于各类别的后验概率。生成式信息丰富灵活性强,但学习和计算过程复杂,计算量大,如果只做分类,就浪费了计算量。

几年前,判别式模型更受人喜爱,因为它用更直接的方式去解决问题,早就得到了不少的应用,比如垃圾邮件和正常邮件的分类问题等。2016年的alphago 也是判别式应用作决策的典型例子。

ChatGPT的特点

如果你跟ChatGPT聊过天,一定会惊奇于它的涉猎极广:创作诗歌、生成代码、绘画作图、撰写论文,似乎样样在行,无所不能。是什么赋予了它如此强大的功力呢?

从ChatGPT的名字,我们知道它是一个“生成型预训练变换模型”(GPT)。这里包括了三个意思:“生成型“、”预训练“、”变换模型”。第一个词,点明它用的正是上面所介绍的生成型建模方法。预训练,说的是它经过了多次训练。变换模型是从“transformer” 的英文翻译过来的。变换器transformer 于2017年由谷歌大脑的一个团队推出,可应用于翻译、文本摘要等任务,现被认为是处理自然语言等顺序输入数据问题NLP的首选模型。

如果你问ChatGPT自己,“它是什么?”之类的问题,一般来说,它都会告诉你,它是一个大型的AI语言模型,这模型指的就是transformer。

这一类的语言模型,通俗的意思就是一个会“文字接龙”的机器:输入一段文字,变换器输出一个“词”,对输入文字进行一个 “合理的延续”。(注:这儿我说输出是一个“词”,实际上是一个“token”,对不同的语言可能有不同的含义,中文可以是“字”,英文可能是“词根”。)

其实,语言本来就是“接龙”。我们不妨思考一下孩子学习语言和写作的过程。他们也是在听大人说了好多遍各种句子之后学会怎么说一句话的。学写作也类似,有人说:“熟读唐诗三百首,不会作诗也会吟”,学生看了大量别人的文章后,开始学写作时,总会有所模仿,实质上就是无意识地学会了“文字接龙”。

图7:语言模型

所以实际上,语言模型所做的事情听起来似乎极为简单,基本上只是在反复地询问 “输入文本的下一个词应该是什么?”,如图7所示,模型选择输出了一个词之后,把这个词加到原来的文本中,又作为输入进入语言模型,又问同样的问题“下一个词是什么?”。然后,再输出、加进文本、输入、选择……如此反复循环,直到生成一个“合理的”文本为止。

机器模型生成文本的“合理”或不合理,最重要的因素固然是所用“生成型模型”的优劣,再就是“预训练”的功夫。 在语言模型内部,对应一个输入文本,它会产生一个可能出现在后面的词的排序列表,以及与每个词对应的概率。例如,输入是“春风”,下一个可能的“字”很多很多,暂且只列举5个吧,可以是“吹0.11、暖0.13、又0.05、到0.1、舞0.08”等等,每个字后面的数字表示它出现的概率。换言之,模型给出了一个带有概率的(很长的)单词列表。那么,应该选择哪一个呢?

如果每次都选择概率最高的那一个,应该是不太“合理”的。再来想想学生学习写作的过程吧,虽然也是在“接龙”,但是不同的人、不同的时候,有不同的接法。这样才能写出各种不同风格、又有创意的文章来。所以,也应该给机器随机选择不同概率的机会,才能避免单调平淡,产生出多姿多彩趣味盎然的作品。尽管不建议每次选择概率最高的,但最好选择概率偏高的,做出一个 “合理的模型”。

ChatGPT是大型语言模型,这个“大”首先表现在模型神经网络权重参数的数量上。它的参数数目是决定其性能的关键因素。这些参数是在训练前需要预先设置的,它们可以控制生成语言的语法、语义和风格,以及语言理解的行为。它还可以控制训练过程的行为,以及生成语言的质量。

OpenAI 的 GPT-3 模型具有 1750 亿参数量,ChatGPT算是 GPT-3.5,参数数量应该多于1750 亿。这些参数指的是在训练模型前需要预先设置的参数。在实际应用中,通常还需要通过实验来确定适当的参数数量,以获得最优的性能。

这些参数在成千上万的训练过程中被修正,得出一个好的神经网络模型。据说GPT-3训练一次的费用是460万美元,总训练成本达1200万美元。

如上所述,ChatGPT的专长是生成“与人类作品类似”的文本。但一个能够生成符合语法的语言的东西,未必能够进行数学计算、逻辑推理等等另一些类型的工作,因为这些领域的表达方式完全不同于自然语言文本,这也就是为什么它在数理方面的测试中屡屡失败的原因。

此外,人们也经常发现ChatGPT “一本正经地胡说八道”的笑话。其原因不难理解,主要还是训练的偏向问题。某些它完全没有听过的东西,当然无法给出正确的回答。还有多义词带来的问题,也给机器模型困惑。例如,据说有人问ChatGPT “勾三股四弦五是什么”的时候,它一本正经地回答说:“这是中国古代叫做‘琴’的一种乐器的调弦方法,然后还编造了一大堆话,令人捧腹不已。

总之,ChatGPT一上场就基本取得成功,旗开得胜,这也是概率论的胜利,贝叶斯的胜利。

参考文献

1.张天蓉. 趣谈概率-从掷骰子到阿尔法狗[M].北京:清华大学出版社,pp.71-75,2017年

2.Sean R Eddy,“What is Bayesian statistics?”,[J], Nature Biotechnology 22, 1177 - 1178 (2004) .

3.Jake VanderPlas,“Frequentism and Bayesianism: A Python-driven Primer”,[L], arXiv:1411.5018 [astro-ph.IM],2014. https://arxiv.org/abs/1411.5018

4.Russell, Stuart; Norvig, Peter (2003) [1995]. Artificial Intelligence: A Modern Approach (2nd ed.).[M], Prentice Hall. p.90

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
相关文章
硬核观察 #898 OpenAI 雇佣上千人改进 AI 的编程能力
OpenAI 雇佣上千人改进 AI 的编程能力OpenAI 过去半年招募了大约一千名远..
「ChatGPT 焦虑症」在蔓延,我最怕的不是被 AI 取代
AI 还不够完美,也依然会胡说八道,但很多时候完成比完美更重要,它在完..
周鸿祎:GPT-4会掀起新的工业革命,国内追赶不应放弃核心技术研发..
“我认为GPT-4会掀起一场新的工业革命,带来新的社会分工,创造新的应用..
一位律师使用ChatGPT写辩护状 现在不得不为其\u0026#34;假\u0026#34;的引证..
据《纽约时报》今天报道,起诉哥伦比亚航空公司Avianca的律师们提交了一..
chatgpt的计费方式和收费标准,一篇文章搞清楚
chatgpt3.5收费的单位,是“$0.002 per 1k tokens”,每1000个tokens需要..
青海女大学生出轨,1分45秒不雅视频聊天记录曝光,引发网友热议..
喜欢的话麻烦点击“关注”和“赞”,既方便讨论与分享,也是对我们更新内..
市场监管总局曝光!这款“ChatGPT”受罚
9月26日,市场监管总局官网公布了9起网络不正当竞争典型案例,涉及“Chat..
CV不存在了?Meta发布“分割一切”AI 模型,CV或迎来GPT-3时刻..
机器之心报道机器之心编辑部CV 研究者接下来的路要怎么走?在此之前,分..
四川高校女教师性骚扰男学生,露骨聊天记录曝光,学校回应了..
聊天记录曝光,露骨内容令人震惊 最近,一起涉及四川某高校的性骚扰事件..
关于作者
御赐铲屎官..(普通会员)
文章
357
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40329 企业收录2981 印章生成186720 电子证书795 电子名片49 自媒体20815

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索