GPT-X 全名General Pretrained Transformer-x,后面的X代表的就是第几版,中文翻译为:通用预训练转换器,这是OpenAI开发的一个自然语言处理计算模型,最早出现在2020年5月公开发布的一篇论文中。
自然语言指的就是人类日常是使用的语言,当中包含各种语种,所谓的NLP(自然语言处理)就是一种人工智能技术,它能使计算机能够理解、解释和生成自然语言。
03
GPT到底学会了什么?
GPT从海量的自由文本中学习知识,主要分为语言类知识和世界知识:
1、其中词性、句法、语意这种属于语言类知识;
2、世界知识又分为是事实型知识和常识性知识,例如"毛主席是中国人"这种是事实型知识,"人类有两只手"这种是常识性知识;
语言类的知识相对有限且静态,但是事实类的知识数量巨大且不断变化,所以增量的训练几乎都来自于世界知识。
但是上面的这些信息,如果一个人拥有超级强大的记忆力,他也是能记住的,但是能记住并不代表会运用,所谓的会运用强调的是一种推理能力。
目前在LLM模型中,推进推理行为的工作主要为两大类:
1、给LLM提供Prompt的方法,核心思想是通过合适的提示语和提示样本,更好地激发LLM本身就具备的推理能力;
2、在预训练中引入程序代买,和文本一起参与预训练,进一步增强LLM的推理能力;
其中第2种就是OpenAI正在实践的思路,利用代码增强LLM的推理能力,更体现出一种通过增加多样性的训练数据来取得推理能力的提升,而Prompt的方式不太能提升推理能力,更像是让LLM在某些时候更好地展示出这种技术和方法,前者更治本,从长远来看,第二种方式更加重要。
据了解,OpenAI对LLM在理念及相关技术方面,领先国外Google、DeepMind大约半年到一年的时间,领先国内大概两年的时间。
04
关于"涌现"
所谓涌现,可以定义为某个系统,某个能力,在某个维度参数超过某个临界点后,突然迅速增长,而这种能力在为突破临界点的之前是不存在的。
自从模型的预训练库里加入了大量代码作为语料之后,不仅仅只是能读懂和理解,从而解锁了"推理"这种能力。毫不扩张地说,"推理"这个能力就是在一定积累程度下的GPT3里"涌现"出来的。
过往的NLP模型更多是按照给定具体任何和具体数据来训练,数据的质量如果很好,也就意味着模型的效果越来越好,但是LLM的最大特点在于:数据越多越好,但是质量不是最重要的,而是次重要的。
这一个的转变代表了以LLM为首的模型,在把信息建立了更多连接之后,很多能力的出现并不依赖数据的质量,而更依赖数据的数量到达一定程度,模型能通过对新问题的推理,在无需重新训练模型的状态下给出效果更好的答案。
这种涌现的能力,称为"乌鸦"。
要解释清楚“乌鸦”,可以看看下面这篇朱松纯教授的文章节选:
同属自然界的鸟类,我们对比一下体型大小都差不多的乌鸦和鹦鹉。鹦鹉有很强的语言模仿能力,你说一个短句,多说几遍,它能重复,这就类似于当前的由数据驱动的聊天机器人。二者都可以说话,但鹦鹉和聊天机器人都不明白说话的语境和语义,也就是它们不能把说的话对应到物理世界和社会的物体、场景、人物,不符合因果与逻辑。
可是,乌鸦就远比鹦鹉聪明,它们能够制造工具,懂得各种物理的常识和人的活动的社会常识。
下面,我就介绍一只乌鸦,它生活在复杂的城市环境中,与人类交互和共存。YouTube网上有不少这方面的视频,大家可以找来看看。我个人认为,人工智能研究该搞一个“乌鸦图腾”, 因为我们必须认真向它们学习。
上图a是一只乌鸦,被研究人员在日本发现和跟踪拍摄的。乌鸦是野生的,也就是说,没人管,没人教。它必须靠自己的观察、感知、认知、学习、推理、执行,完全自主生活。假如把它看成机器人的话,它就在我们现实生活中活下来。如果这是一个自主的流浪汉进城了,他要在城里活下去,包括与城管周旋。
首先,乌鸦面临一个任务,就是寻找食物。它找到了坚果(至于如何发现坚果里面有果肉,那是另外一个例子了),需要砸碎,可是这个任务超出它的物理动作的能力。其它动物,如大猩猩会使用工具,找几块石头,一块大的垫在底下,一块中等的拿在手上来砸。乌鸦怎么试都不行,它把坚果从天上往下抛,发现解决不了这个任务。在这个过程中,它就发现一个诀窍,把果子放到路上让车轧过去(图b),这就是“鸟机交互”了。
后来进一步发现,虽然坚果被轧碎了,但它到路中间去吃是一件很危险的事。因为在一个车水马龙的路面上,随时它就牺牲了。我这里要强调一点,这个过程是没有大数据训练的,也没有所谓监督学习,乌鸦的生命没有第二次机会。这是与当前很多机器学习,特别是深度学习完全不同的机制。
然后,它又开始观察了,见图c。它发现在靠近红绿路灯的路口,车子和人有时候停下了。这时,它必须进一步领悟出红绿灯、斑马线、行人指示灯、车子停、人流停这之间复杂的因果链。甚至,哪个灯在哪个方向管用、对什么对象管用。搞清楚之后,乌鸦就选择了一根正好在斑马线上方的一根电线,蹲下来了(图d)。
这里我要强调另一点,也许它观察和学习的是别的地点,那个点没有这些蹲点的条件。它必须相信,同样的因果关系,可以搬到当前的地点来用。这一点,当前很多机器学习方法是做不到的。比如,一些增强学习方法,让机器人抓取一些固定物体,如积木玩具,换一换位置都不行;打游戏的人工智能算法,换一换画面,又得重新开始学习。
它把坚果抛到斑马线上,等车子轧过去,然后等到行人灯亮了(图e)。这个时候,车子都停在斑马线外面,它终于可以从容不迫地走过去,吃到了地上的果肉。你说这个乌鸦有多聪明,这是我期望的真正的智能。
这个乌鸦给我们的启示,至少有三点:
其一、它是一个完全自主的智能。感知、认知、推理、学习、和执行, 它都有。我们前面说的, 世界上一批顶级的科学家都解决不了的问题,乌鸦向我们证明了,这个解存在。
其二、你说它有大数据学习吗?这个乌鸦有几百万人工标注好的训练数据给它学习吗?没有,它自己把这个事通过少量数据想清楚了,没人教它。
其三、乌鸦头有多大?不到人脑的1%大小。人脑功耗大约是10-25瓦,它就只有0.1-0.2瓦,就实现功能了,根本不需要前面谈到的核动力发电。这给硬件芯片设计者也提出了挑战和思路。十几年前我到中科院计算所讲座, 就说要做视觉芯片VPU,应该比后来的GPU更超前。我最近参与了一个计算机体系结构的大项目,也有这个目标。
在座的年轻人想想看,你们有很大的机会在这里面,这个解存在,但是我们不知道怎么用一个科学的手段去实现这个解。
讲通俗一点,我们要寻找“乌鸦”模式的智能,而不要“鹦鹉”模式的智能。当然,我们必须也要看到,“鹦鹉”模式的智能在商业上,针对某些垂直应用或许有效。
上面引用说到的鹦鹉模式的智能,正是我们当下层面的智能,过去的AI应用也几乎来自:需要高质量的数据、高效模型的发展,用更高的算力来发现更多的"对应关系"
过往更多是在"寻找对应关系"上做文章,而大自然用乌鸦的例子向我们证明,真正的人工智能应该在"懂"这个层面去深化。
ChatGPT是否真的有在"懂"的层面做深化,我们可以通过以下问题去验证:
1、问题描述越详细,ChatGPT回答得越好(因为越详细的描述在预训练里能找到对应关系的概率就越低);
2、询问ChatGPT互联网上并不存在的内容时,能给出较好的答案;
3、给出一个新的游戏规则,ChatGPT能和你玩;
与其说过往的智能形态是靠我们不断提供新的数据,然后模型继而模仿,本质上是基于寻找对应关系,而未来新的智能形态更多是靠我们不断去调教和优化,然后慢慢它竟然懂了,本质上是完善了内在逻辑的补充。
为此我们可以尝试做个总结,在这里厉害的LLM模型是GPT-4,而把GPT-4真正能与人类需求对接起来的是ChatGPT(因为添加了Instruct的方式),其中Instruct用的是RLHF这项技术,这个虽然有难度但也不会说特别难,而真正的难是难在涌现出"乌鸦"的能力。
“乌鸦”能力的涌现,是具有不确定性的,其涌现的路径更是无从复制,我们都知道最有实力和OpenAI做抗衡的,也许是提出了Transformer的祖师爷Google,我们应该时刻关注着Google,看看它什么时候才能在自己的模型下涌现“乌鸦”能力。
作者 | 雅格布,寻找收益与风险的不对称性。
相关文章
猜你喜欢