> 自媒体 > (AI)人工智能 > 你还在用听不懂人话的 ChatGPT 吗?
你还在用听不懂人话的 ChatGPT 吗?
来源:闪念基因
2023-07-10 09:19:14
387
管理

导读

近年来,大模型如 ChatGPT 等愈发强大的生成能力一次次引爆行业讨论。你真的玩明白 GPT 等等 AIGC 工具了吗?它是否足够“听话”、理解并满足你所有的需求?提示词工程是激活大模型能力的关键所在。可以说谁掌握 Prompt Engineering 能力,谁就拿到了激活大模型强能力的钥匙。本篇文章讲述了 Prompt Engineering 的基础实用技巧和进阶操作门道,无论你是 AIGC 入门小白还是已上手的玩家,看完文章将会有新启发。欢迎阅读~

目录

1 什么是提示工程

2 提示工程基础

2.1 提示四要素

2.2 通用技巧 2.3 简单提示解析

3 提示工程进阶

3.1 零/少样本提示

3.2 思维链提示

3.3 Explicit 思维链

3.4 主动提示

3.5 思维树3.6 头脑风暴提示

3.7 多模态思维链

3.8 一致性提示

3.9 Progressive-Hint 提示3.10 Plan-and-Solve 提示3.11 增强(检索)提示

4 懒人万能提示工程

01

什么是提示工程

提示工程是一门新兴学科,就像是为大语言模型(LLM)设计的"语言游戏"。通过这个"游戏",我们可以更有效地引导 LLM 来处理问题。只有熟悉了这个游戏的规则,我们才能更清楚地认识到 LLM 的能力和局限。

这个"游戏"不仅帮助我们理解 LLM,它也是提升 LLM 能力的途径。有效的提示工程可以提高大语言模型处理复杂问题的能力(比如一些数学推理问题),也可以提高大语言模型的扩展性(比如可以结合专业领域的知识和外部工具,来提升 LLM 的能力)。

提示工程就像是一把钥匙,为我们理解和应用大语言模型打开了新的大门,无论是现在还是未来,它的潜力都是无穷无尽的。

02

提示工程基础

2.1 提示四要素

通常一个 Prompt 会包含以下四个元素中的若干个:

指令:希望 LLM 执行什么任务;

上下文:给 LLM 提供一些额外的信息,比如可以是垂直领域信息,从而引导 LLM 给出更好的回答;

输入数据:希望从 LLM 得到什么内容的回答;

输出格式:引导 LLM 给出指定格式的输出。

2.2 通用技巧

由浅入深

设计提示词经常是一个迭代的过程,需要不断试验才能获得最佳结果。你可以从简单的提示词开始,随着实验深入,逐步添加更多的元素和上下文。在处理复杂任务时,可以将任务分解为简单的子任务,逐步构建并优化。

比如你想让一个语言模型来写一首关于春天的诗。一个简单的提示词可能是:“写一首关于春天的诗。” 随着你对模型输出的观察,你可能发现需要更具体的指示,例如:“写一首四行关于春天的诗,用押韵的方式。”

明确指令

设计有效的提示词,最好是使用明确的命令来指导模型完成你想要的任务,如“写作”、“分类”、“总结”、“翻译”、“排序”等。然后,根据具体任务和应用场景,尝试使用不同的关键词、上下文和数据,找出最佳的组合。

假设你希望模型能够将一段英文翻译成中文。你可以开始使用这样的提示词:“将以下文本翻译成中文”,接着提供你要翻译的英文段落。然而,如果你希望翻译得更具有正式感,你可能需要添加更多上下文:“将以下的正式英文报告翻译成同等正式的中文。”

明确细节

当你需要模型执行特定任务或生成特定风格的内容时,详细且明确的提示词会得到更好的结果。

如果你想要模型生成一段描述美食的文本,你可能会这样指示:“描述一道美味的意大利面。”但是,如果你希望得到关于某个特定菜品的详细描述,你可能需要指示得更具体:“描述一道由新鲜番茄、大蒜、橄榄油和罗勒叶制成的意大利面的味道和口感。”

明确需求

这里的明确类似于给 LLM 限定一些范围,而不是泛泛而谈。

比如你可能希望模型解释一个科学概念,例如:“解释相对论。”但如果你需要用非专业的语言来描述,你可能需要更明确的指示:“用易于理解的非科学语言解释爱因斯坦的相对论。”

正向引导,避免反向限制

设计提示词时,避免指示模型不要做什么,而是明确告诉它应该做什么。这将鼓励更多的确定性,并聚焦于引导模型产生好的回应。

例如,你正在设计一个电影推荐的聊天机器人。一种可能的提示词是:“推荐一部电影,但不要询问任何个人信息。”然而,更有效的提示可能是:“根据全球热门电影推荐一部电影。”

2.3 简单提示解析

场景:写一个关于自己的介绍

提示:“Reid 的简历:[粘贴完整的简历在这里]。根据以上信息,写一个关于 Reid 的风趣的演讲者简介。”

分析:这个提示直接提供了 LLM 所需的信息,使得 LLM 能够根据给定的信息来编写一段介绍,并明确了简历的风格和用途。

场景:用五个要点总结一篇文章

提示:“[在这里粘贴全文]。总结上面文章的内容,用五个要点。”分析:这个提示明确地指出了任务——对文章进行总结,并制定了输出的形式——五个要点。

场景:写一篇关于生产力的博客

提示:"写一篇关于小型企业的生产力重要性的博客文章。"

分析:这个提示提供了明确的上下文,告诉 LLM 所需的内容类型(博客),以及博客文章需要涵盖的具体主题(小型企业的生产力的重要性)。

场景:写一首诗

提示:“以李白的风格写一首关于落叶的诗。”

分析:这个提示要求 LLM 以特定的风格(李白的风格)写诗,并给出了诗的主题(落叶)。这让 LLM 知道了应该采用的写作风格和主题。

场景:关于如何训练小狗的文章

提示:“作为一名专业的狗训练师,写一封电子邮件给一位刚刚得到一只3个月大的柯基的客户,告诉他们应该做哪些活动来训练他们的小狗。”

分析:在这个提示中,我们要求 LLM 扮演一个特定的角色(狗训练师),并提供特定的上下文信息,如狗的年龄和类型。我们也指出了我们想要的内容类型(电子邮件)。

03

提示工程进阶

3.1 零/少样本提示

Zero-Shot Prompting:在这种情况下,模型接收到的提示没有包含任何特定任务的示例。这意味着模型需要基于给定的提示,而没有任何相关任务的先前示例,来推断出应该执行的任务。例如,如果我们向模型提供提示 "Translate the following English text to French: 'Hello, how are you?'",那么模型将要根据这个提示,而没有任何额外的翻译示例,来执行翻译任务。

Few-Shot Prompting:在这种情况下,模型接收到的提示包含了一些(通常是几个)特定任务的示例。这些示例作为上下文,提供了关于期望输出的线索。例如,如果我们想要模型进行文本翻译,我们可能会提供如下的提示:

English: 'Cat' French: 'Chat'English: 'Dog'French: 'Chien'English: 'Bird'French: 'Oiseau'English: 'Elephant'

在这个例子中,模型通过前三个英法翻译对的示例,理解了我们希望它将 'Elephant' 从英文翻译成法文。因此,它会输出 'Éléphant'。

3.2 思维链提示

思维链的思想其实很简单,就是给 LLM 通提供一些思考的中间过程,可以是用户提供,也可以让模型自己来思考。

少样本思维链:就是用户提供一些“解题步骤”,如下图所示,左侧直接让 LLM 回答问题时它给出了错误的答案,但是右侧通过在 Prompt 中告诉模型解答步骤,最终给出的答案就是准确的。

3.3 Explicit 思维链

这个工作的主要目的是让 LLM 在对话时考虑用户的状态,比如用户的 personality, empathy 和 psychological,遵循的还是思维链套路,并且将思维链拆成了多个步骤(LLM 每次回答一点,不是一次性基于思维链全部回答)。这样的好处在于用户还可以修改、删除中间过程的一些回答,原始的上下文和所有中间过程都会用于最终回答的生成。

3.4 主动提示

本质上还是思维链,由于人工设计的思维链或者自动化思维链的结果也并不一定理想(思维链的设计跟具体任务相关),因此提出了用不确定性来评估思维链的好坏,然后再让人来修正一些不确定性比较大的思维链。

3.8 一致性提示

核心思想就是少数服从多数,多让模型回答几次(这里的提问也用到了少样本思维链),然后在 LLM 的多次回答中选择出现多次的答案。

为了进一步增强 PS 提示的效果,作者扩展了它,形成了一种名为 PS 的新提示方式。PS 提示在 PS 提示的基础上,添加了“pay attention to calculation”这样的引导语句,要求模型在计算过程中更加精确。为了避免模型在处理问题时忽略了关键的变量和数值,PS 提示还增加了“extract relevant variables and their corresponding numerals”这样的引导语句。此外,为了强化模型在推理过程中计算中间结果的能力,PS 提示也加入了“calculate intermediate results”这样的引导语句。通过这种方式,PS 提示进一步提高了模型在处理多步推理任务时的效果。

3.11 增强(检索)提示

增强 LLM 本质上在做的事情还是提高提示词的信息,从而更好地引导模型。这里主要可以有两种方式,一种是用自己的私有知识库来扩充 LLM 的知识,一种是借用 LLM 的知识库来提高 Prompt 的信息量。

3.11.1 外部知识库

本地知识库

这里可以结合网上的信息或者个人的本地信息,如果是结合网上的信息(比如 newbing),其实就是需要结合一些爬虫工具,捞出一些相关信息一起拼到 Prompt 当中(也会需要比如做一些相关性的比较、摘要等)。结合本地知识库也是目前业界内比较关注的方向,主要有以下几步:

将本地知识库转为 embedding 保存。

对于用户提问转为 embedding,然后去数据库查相关的信息。

检索出本地知识库相关的信息后,比如可以用如下提示拼接上检索出来的信息。

Use the following pieces of context

这样 LLM 在回答时就能利用上私有的知识了。

前面提到的 Clue And Reasoning 提示其实也属于是在借用 LLM 的知识库。

Clue And Reasoning 提示

Clue and Reasoning Prompting (CARP) 是一种用于文本分类的方法,它首先提示大型语言模型(LLMs)寻找表面线索,例如关键词、语调、语义关系、引用等,然后基于这些线索引导出一个诊断推理过程进行最终决策。

(其实也适用于其他场景,让模型帮忙提供点线索再给出最终答案)

知识反刍提示

尽管现有的预训练语言模型(PLMs)在许多任务上表现出色,但它们仍然存在一些问题,比如在处理知识密集型任务时,它们往往不能充分利用模型中的潜在知识。

作者们提出了一种名为"Knowledge Rumination"的方法,通过添加像"As far as I know"这样的提示,让模型回顾相关的潜在知识,并将其注入回模型以进行知识巩固。这种方法的灵感来自于动物的反刍过程,即动物会将食物从胃中带回口中再次咀嚼,以便更好地消化和吸收。

文章提出了三种不同类型的提示:

Background Prompt:这种提示旨在帮助模型思考背景知识。提示的形式是"As far as I know [MASK]"。这种提示鼓励模型回顾和思考其已经知道的一般信息或背景知识。

Mention Prompt:这种提示用于引发模型对提及的记忆。形式是"About [Mention], I know [MASK]"。这种提示鼓励模型回顾和思考与特定主题或实体(即"[Mention]")相关的知识。

Task Prompt:这种提示旨在帮助模型回忆任务的记忆。例如,对于情感分析,提示是"About sentiment analysis, I know [MASK]"。这种提示鼓励模型回顾和思考与特定任务(例如情感分析)相关的知识。

04

懒人万能提示工程

目前网上已经有不少 Prompt 优化工具,比如 ChatGPT 的插件中就有一个不错的工具 Prompt perfect,能够基于用户给的 Prompt 进行优化,再喂给 ChatGPT 进行提问。

当然,经过前面那么多提示工程的介绍,大家也可以思考一下,如何用一个提示工程来帮助自己写提示工程,下面是笔者之前做的一个工具,提示词的效果肉眼可见提升。感兴趣的也可以试试用 ChatGPT 来优化自己的 Prompt。欢迎转发分享~

参考文献:

Prompt Engineering Guide.

Chain-of-Thought Prompting Elicits Reasoning in Large Language Models.

Multimodal Chain-of-Thought Reasoning in Language Models.

Automatic Chain of Thought Prompting in Large Language Models.

Self-Consistency Improves Chain of Thought Reasoning in Language Models.

Chain-of-thought prompting for responding to in-depth dialogue questions with LLM.

作者:陈铭豪

来源:微信公众号:腾讯云开发者

出处:https://mp.weixin.qq.com/s/Z9YthDqprQwMD4wNzxqQ0Q

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
相关文章
OpenAI:将向所有ChatGPT Plus用户开放这一超级功能,人人都能成为数据分析..
每经编辑:杜宇7月8日凌晨,OpenAI在社交平台宣布,下周,将向所有ChatGP..
我们为什么需要文章润色?
在当今信息爆炸的时代,文章已经成为人们获取信息和表达观点的重要方式。..
【实战】一文讲透ChatGPT最新功能Custom Instructions
收录于 AI实战教程 合集嗨,又见面啦!我们来更一篇最近大家非常关心的,..
这种群,千万别进!
为了增加自己账号的粉丝数量有人利用公众“吃瓜”的心理编造虚假信息误导..
ChatGPT卷入电商:承包5%销售线索,一个月增收10万美元..
智东西编译 | 陈甘露编辑 | 李水青智东西5月30日消息,据外媒The Informa..
考进哈佛!能识图还能角色扮演!chatGPT4.0强到离谱!发布会解读..
考进哈佛!能识图还能角色扮演!chatGPT4.0强到离谱!发布会全程解读莫道..
光华EMBA特别策划 | 读书日读什么?让ChatGPT告诉你
光华EMBA INSPIRATION点击问题 掉落回答管理者得有专属读物5本好书推荐论..
一起了解 ChatGPT,环境要求,部署方式,集成 ChatGPT,Docker部署..
导读:介绍 ChatGPT (Open ai),它是基于 GPT-3.5、4.0架构的大型语言模..
\u0026#34;聊天~\u0026#34;≠\u0026#34;have a talk\u0026#34;,说错就尴尬..
必克英语,专属外教一对一情景式电话教学,职场人士和妈妈们首选英语教育..
关于作者
巫月(普通会员)
文章
623
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40369 企业收录2981 印章生成216706 电子证书945 电子名片57 自媒体34015

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索