GPT-4终于出现!!!!科技格局将彻底改变,有多少职业将被替代?
通往 GPT-4 的道路很长,OpenAI——以及一般的 AI 语言模型——在最近几个月迅速成为主流之前,在几年内缓慢地建立了势头。
描述 GPT 的原始研究论文发表于 2018 年,GPT-2 于 2019 年公布,GPT-3 于 2020 年公布。这些模型是在巨大的文本数据集上训练的,其中大部分是从互联网上抓取的,用于挖掘统计模式。然后使用这些模式来预测哪个词跟在另一个词之后。这是一个描述起来相对简单的机制,但最终结果是灵活的系统,可以生成、总结和改写写作,以及执行其他基于文本的任务,如翻译或生成代码。
“例如,如果用户发送他们冰箱内部的图片,虚拟志愿者不仅能够正确识别里面的东西,还能推断和分析可以用这些成分准备什么。该工具还可以为这些成分提供一些食谱,并发送有关如何制作它们的分步指南。”
GPT-4 的一个更有意义的改进可能是上述的可操纵性工具。借助 GPT-4,OpenAI 引入了一种新的 API 功能,即“系统”消息,它允许开发人员通过描述特定方向来规定风格和任务。系统消息也将在未来出现在 ChatGPT 中,本质上是为 AI 的下一次交互设定基调和边界的指令。
例如,一条系统消息可能是这样的:“你是一位总是以苏格拉底式方式回应的导师。你永远不会给学生答案,但总是试着问正确的问题来帮助他们学会独立思考。你应该始终根据学生的兴趣和知识调整你的问题,将问题分解成更简单的部分,直到它处于适合他们的水平。”
不过,即使有系统消息和其他升级,OpenAI 也承认 GPT-4 远非完美。它仍然“幻觉”事实并犯推理错误,有时还非常自信。在 OpenAI 引用的一个例子中,GPT-4 将猫王描述为“演员之子”——这是一个明显的失误。
OpenAI 写道:“GPT-4 通常缺乏对绝大多数数据切断后(2021 年 9 月)发生的事件的了解,并且没有从中吸取经验教训。” “它有时会出现简单的推理错误,这些错误似乎与跨多个领域的能力不相称,或者在接受用户明显的虚假陈述时过于轻信。有时它会像人类一样在难题上失败,例如在它生成的代码中引入安全漏洞。”
不过,OpenAI 确实指出,它在特定领域做出了改进;一方面,GPT-4 不太可能拒绝关于如何合成危险化学品的请求。该公司表示,与 GPT-3.5 相比,GPT-4 总体上响应“不允许”内容请求的可能性降低了 82%,并且根据 OpenAI 的政策响应敏感请求——例如医疗建议和任何与自我伤害有关的请求 29 % 更频繁。
相关文章
猜你喜欢