> 自媒体 > (AI)人工智能 > 最全攻略!OpenAI 发布 GPT-4 使用指南,所有干货全在这
最全攻略!OpenAI 发布 GPT-4 使用指南,所有干货全在这
来源:爱范儿
2024-01-03 21:24:18
352
管理

让模型扮演某个角色

术业有专攻,指定模型扮演专门的角色,它输出的内容会显得更加专业。

例如:请你扮演一名警探小说家,用柯南式推理描述一起离奇命案。要求:需匿名处理,字数 1000 字以上,剧情跌宕起伏。

提供示例

提供适用于所有示例的一般性说明通常比通过示例演示更有效,但在某些情况下提供示例可能更容易。

举个例子,如果我告诉模型要学会游泳,只需要踢腿和摆动手臂,这就是一个一般性的说明。而如果我给模型展示一个游泳的视频,展示踢腿和摆动手臂的具体动作,那就是通过示例来说明。

指定输出长度

我们可以告诉模型,希望它生成的输出有多长,这个长度可以以单词、句子、段落、要点等方式进行计数。

受限于模型内部机制和语言复杂性的影响,最好还是按照段落、要点来划分,这样效果才会比较好。

提供参考文本让模型使用参考文本回答

假如我们手头上有更多参考信息,那我们可以「喂」给模型,并让模型使用提供的信息来回答。

对于需要处理很长对话的应用场景,总结或过滤之前的对话

模型在处理对话时,受制于固定的上下文长度,不能记住所有的对话历史。

想要解决这个问题,其中一种方法是对之前的对话进行总结,当输入的对话长度达到一定的限制时,系统可以自动总结之前的聊天内容,将一部分信息作为摘要显示,或者,可以在对话进行的同时,在后台悄悄地总结之前的聊天内容。

另一种解决方法是在处理当前问题时,动态地选择与当前问题最相关的部分对话。这个方法涉及到一种叫做「使用基于嵌入的搜索来实现高效的知识检索」的策略。

简单来说,就是根据当前问题的内容,找到之前对话中与之相关的部分。这样可以更有效地利用之前的信息,让对话变得更有针对性。

分段总结长文档并递归构建完整摘要

由于模型只能记住有限的信息,所以不能直接用来总结很长的文本,为了总结长篇文档,我们可以采用一种逐步总结的方法。

就像我们阅读一本书时,可以通过一章又一章地提问来总结每个部分。每个部分的摘要可以串联起来,形成对整个文档的概括。这个过程可以一层一层地递归,一直到总结整个文档为止。

如果需要理解后面的内容,可能会用到前面的信息。在这种情况下,另一个有用的技巧是在阅读到某一点之前,先看一下摘要,并了解这一点的内容。

给模型时间「思考」

指示模型在急于得出结论之前想出自己的解决方案

以往我们可能直接让模型看学生的答案,然后问模型这个答案对不对,但是有时候学生的答案是错的,如果直接让模型判断学生的答案,它可能判断不准确。

为了让模型更准确,我们可以先让模型自己做一下这个数学题,先算出模型自己的答案来。然后再让模型对比一下学生的答案和模型自己的答案。

先让模型自己算一遍,它就更容易判断出学生的答案对不对,如果学生的答案和模型自己的答案不一样,它就知道学生答错了。这样让模型从最基本的第一步开始思考,而不是直接判断学生的答案,可以提高模型的判断准确度。

另一个很好的使用代码执行的例子是使用外部 API(应用程序编程接口)。如果我们告诉模型如何正确使用某个 API,它就可以写出能够调用该 API 的代码。

我们可以给模型提供一些展示如何使用 API 的文档或者代码示例,这样就能引导模型学会如何利用这个 API。简单说,通过给模型提供一些关于 API 的指导,它就能够创建代码,实现更多的功能。

警告:执行由模型生成的代码本质上是不安全的,任何尝试执行此操作的应用程序都应该采取预防措施。特别是,需要使用沙盒代码执行环境来限制不受信任的代码可能引起的潜在危害。

让模型提供特定功能

我们可以通过 API 请求,向它传递一个描述功能的清单。这样,模型就能够根据提供的模式生成函数参数。生成的函数参数将以 JSON 格式返回,然后我们再利用它来执行函数调用。

然后,把函数调用的输出反馈到下一个请求中的模型里,就可以实现一个循环,这就是使用 OpenAI 模型调用外部函数的推荐方式。

系统地测试变更

当我们对一个系统做修改时,很难判断这些修改是好是坏。因为例子太少,很难确定结果是真的改进了还是运气好。有时候一个修改在某些情况下是好的,在其他情况下是坏的。

那么我们如何评价系统输出的质量呢?如果问题只有一个标准答案,计算机可以自动判断对错。如果没有标准答案,可以用其他模型来判断质量。

此外,我们也可以让人工来评价主观的质量,又或者计算机和人工结合评价当问题的答案很长时,不同的答案质量差别不大,这时就可以让模型自己来评价质量。

当然,随着模型变得更先进,可以自动评价的内容会越来越多,需要人工评价的越来越少,评价系统的改进非常难,结合计算机和人工是最好的方法。

参考黄金标准答案评估模型输出

假设我们面对一个问题,需要给出答案。我们已经知道这个问题的正确答案,是基于一些事实的。比如问题是「为什么天空是蓝色的」,正确答案可能是「因为阳光通过大气层的时候,蓝色光波段的光比其他颜色通过得更好」。

这个答案就是基于以下事实:阳光包含不同颜色(光波段)蓝色光波段通过大气层时损耗较小

有了问题和正确答案后,我们可以用模型(比如机器学习模型)来判断,答案中的每一部分事实对于答案正确的重要性。

比如通过模型判断出,答案中「阳光包含不同颜色」这一事实对于答案的正确性非常重要。而「蓝色光波段损耗较小」这一事实,对于答案也很重要。这样我们就可以知道,这个问题的答案依赖于哪些关键的已知事实。

在和 ChatGPT 人机交流的过程中,提示词看似简单,却又是最为关键的存在,在数字时代,提示词是拆分需求的起点,通过设计巧妙的提示词,我们可以将整个任务拆分成一系列简明的步骤。

这样的分解不仅有助于模型更好地理解用户的意图,同时也为用户提供了更为清晰的操作路径,就好像给定了一个线索,引导我们一步步揭开问题的谜底。

你我的需求如同涌动的江河,而提示词就像是调节水流方向的水闸,它扮演着枢纽的角色,连接着用户的思维与机器的理解。毫不夸张地说,一个好的提示词既是对用户深度理解的洞察,也是一种人机沟通的默契。

当然,要想真正掌握提示词的使用技巧,仅依靠 Prompt engineering 还远远不够,但 OpenAI 官方的使用指南总归给我们提供了宝贵的入门指引。

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
相关文章
OpenAI注册GPT-5商标,预示着下一代生产式AI的到来
在生产式人工智能(AI)领域,OpenAI的GPT系列模型已经成为了标杆。以令..
发现账号不对劲,十堰出动40多名警力,连抓19人!
来源:十堰晚报 今年1月 家住张湾区车城路的王女士 遭遇冒充“公检法”诈..
官宣,ChatGPT Plus用户由GPT-3.5升级至GPT-4
8月4日,OpenAI通过X(前推特)账号,宣布ChatGPT 将于本周推出一系列更..
网络交友聊天软件套路之某聊的割韭菜方式
某聊看着请了某位美女港星做代言人,但藏不住其韭菜刀利刃。它虽然不像某..
推理加速GPT-3超越英伟达方案50%!大模型推理系统Energon-AI开源..
在前沿AI大模型规模呈指数级增长的趋势下,仅凭单卡已经很难满足当下的推..
Sam Altman专访:GPT-4没太让我惊讶,ChatGPT则让我喜出望外..
来源:智源社区作者:熊宇轩编辑:好困【新智元导读】ChatGPT、GPT-4无疑..
ChatGPT可伪造看似合理“支持”科学假说的试验数据
新华社一项日前发表在《美国医学会杂志·眼科学卷》杂志上的新研究说,Ch..
ChatGPT 们难以复制的原因,除了耗显卡,还有水电费太贵?..
不过,如此简单的形式,却成为了当下网络上和现实里最火热的话题,果然「..
高元、叶明:ChatGPT横空出世,是风险还是机遇?
NO.2为何而生——ChatGPT的广阔应用场景ChatGPT内容生成的智能性和涉及领..
关于作者
杨子(普通会员)
文章
623
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40369 企业收录2981 印章生成216706 电子证书945 电子名片57 自媒体34015

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索