图2: 作者对GPT-2(左)和GPT-3(右)的比较
所有GPT模型都利用了Transformer架构,这意味着它们有一个编码器来处理输入序列,一个解码器来生成输出序列。编码器和解码器都有一个多头自注意力机制,该机制允许模型对序列的不同部分进行不同的加权,以推断含义和上下文。此外,编码器利用掩码语言建模(MLM) 来理解单词之间的关系,并产生更易理解的反应。
驱动GPT的自注意力机制通过将标记(可以是单词、句子或其他文本分组的文本片段)转换为向量来工作,向量代表标记在输入序列中的重要性。该模型分四步做到这一点:
1. 为输入序列中的每个标记创建三个向量:“查询”、“键”和“值”。
2. 通过取两个向量的点积来计算步骤1中的“查询”向量与其他每个标记的“键”向量之间的相似性。
3. 通过将第2步的输出传入softmax函数来生成归一化的权重。
4. 通过将步骤3中生成的权重乘以每个标记的“值”向量,生成一个最终向量,代表标记在序列中的重要性。
GPT使用的“多头”注意力机制,是自注意力机制的进化版。该模型不是一次性执行步骤1到4,而是多次迭代此机制:每次 为“查询”、“键”和“值” 生成新的向量投影。通过以这种方式扩展自注意力,该模型能够掌握输入词语数据的潜在含义更复杂的关系。
图3: 作者从ChatGPT生成的截图。
尽管GPT-3在自然语言处理方面取得显著进步,但它在符合用户意图方面是能力有限的。例如,GPT-3可能会产生有以下性质的输出:
缺乏帮助,意味着它们不遵循用户的明确指示。虚构事实,反映不存在的或不正确的事实。解释不通,使人难以理解模型是如何得出特定决策或预测的。有毒/有偏见,包含有害或冒犯性内容,传播错误信息。ChatGPT中引入了新颖的训练方法,以解决标准版LLM的一些固有问题。
ChatGPTChatGPT是InstructGPT的衍生版,它引入了一种新的方法,将人类反馈纳入训练过程,以更好地使模型输出与用户意图保持一致。OpenAI 2022年的论文《训练语言模型以遵循人类反馈的指令》(Training language models to follow instructions with human feedback) 深入描述了人类反馈强化学习 (RLHF) ,下文将简述。
第一步: 监督微调 (SFT) 模型第一步开发涉及通过雇用40名合同工创建监督训练数据集来微调GPT-3模型,其中输入具有供模型学习的已知输出。输入或提示是从实际用户输入到开放API中收集的。然后,标注员根据提示写出适当的回复,从而为每个输入创建已知输出。然后,GPT-3模型使用这个新监督数据集进行微调,以创建GPT-3.5,也称为SFT模型。
为了把提示数据集的多样性最大化,任何给定的用户ID只能有200条提示入围,任何共有较长相同前缀的提示也被删除。最后,所有含有个人身份信息 (PII) 的提示都被删除。
在汇总OpenAI API的提示信息后,标注员也被要求为那些有极少实际样本数据的几类提示手动创建样本提示,使提示数据集更丰富。包括:
简单的提示:任何随机的提问。小样本提示:包含多个“查询/响应”对的指令。(注:相当于为某个题型写几个例题)基于用户的提示:指用户提供示例或指令来引导AI生成特定输出。在生成回应时,标注员被要求尽力推断出用户的指令是什么。论文描述了提示请求信息的主要三种方式:
1. 直接式:"告诉我关于......"
2. 小样本式:给出两个关于某个主题的故事的例子,然后写一个关于同一主题的故事。
3. 续写式:给出一个故事的开头,然后完成它。
把OpenAI API的提示和标注员手写的提示汇编在一起,共产生了13,000个输入/输出样本,用于训练监督模型。
图5: 作者对响应排名组合的举例。
将每个组合作为一个独立的数据点纳入模型会导致过度拟合(无法推广到未见过的数据)。为解决这个问题,模型将每组排名作为一个批次数据点。
Figure 8: 作者从ChatGPT生成的截图。
模型评估对模型的评估是用模型在训练期间从未见过的测试数据集来执行的。用该测试集进行一系列评估,以确定该模型是否比其前身GPT-3更能产生符合要求的回复。
帮助性:模型推理和遵循用户指令的能力。标注员在85±3%的时间里相比GPT-3更喜欢InstructGPT的输出。
真实性:控制模型出现虚幻内容的倾向。使用TruthfulQA数据集进行评估时,PPO模型产生的输出显示了真实性和信息量略有增加。
无害性:模型避免不适当的、贬低的和诋毁的内容的能力。使用RealToxicityPrompts数据集测试了无害性。该测试在三种状态下进行:
1. 模型被指示提供友好尊重的回复:导致有毒回复显著减少。
2. 模型被指示提供回复,没有任何关于尊重的设置:有害性没有明显变化。
3. 模型被指示提供有毒回复:回复实际上比GPT-3模型的更加有毒。
关于创建ChatGPT和InstructGPT所用方法的更多信息,请阅读OpenAI于2022年发表的原始论文Training language models to follow instructions with human feedback,https://arxiv.org/pdf/2203.02155.pdf。
Figure 9: 作者从ChatGPT生成的截图。
祝学习愉快!
Sources1. https://openai.com/blog/chatgpt/
2. https://arxiv.org/pdf/2203.02155.pdf
3.https://medium.com/r/?url=https://deepai.org/machine-learning-glossary-and-terms/softmax-layer
4.https://www.assemblyai.com/blog/how-chatgpt-actually-works/
5.https://medium.com/r/url=https://towardsdatascience.com/proximal-policy-optimization-ppo-explained-abed1952457b
原文标题:How ChatGPT Works: The Model Behind The Bot原文链接:
https://towardsdatascience.com/how-chatgpt-works-the-models-behind-the-bot-1ce5fca96286
A brief introduction to the intuition and methodology behind the chat bot you can’t stop hearing about.相关文章
猜你喜欢