> 自媒体 > (AI)人工智能 > 2000元训练比肩ChatGPT的开源大模型!GPT-4盖章认证,权重可下载
2000元训练比肩ChatGPT的开源大模型!GPT-4盖章认证,权重可下载
来源:量子位
2023-04-05 18:12:15
439
管理

鱼羊 编辑整理

量子位 | 公众号 QbitAI

2000块,调教出一个达到ChatGPT九成功力的开源大模型。

还是被GPT-4亲自盖章认证实力的那种。

就有网友认为:这类工作证明,对于个人用户而言,大语言模型并不是那么遥不可及。

量子位最新获悉,目前,Vicuna的权重已经完全开放。

然后,把这两个答案都丢给GPT-4,让它按10分制分别给打个分。

这一步,需要设置好prompt,研究人员用到的提示词是这样的:

We would like to request your feedback on the performance of two AI assistants in response to the user question displayed above.

Please rate the helpfulness, relevance, accuracy, level of details of their responses. Each assistant receives an overall score on a scale of 1 to 10, where a higher score indicates better overall performance.

Please first output a single line containing only two values indicating the scores for Assistant 1 and 2, respectively. The two scores are separated by a space.

In the subsequent line, please provide a comprehensive explanation of your evaluation, avoiding any potential bias and ensuring that the order in which the responses were presented does not affect your judgment.

其中的技巧在于:

首先完整陈述任务:(1)需要写的是反馈;(2)评价对象是两个AI助手;(3)评价内容是它们的回答表现;(4)回复的对象是上面列着的用户的问题。给出评价的标准:(1)有帮助(不是车轱辘话,且考虑回复的对象是人类用户,生成的回答要让人类可以理解);(2)相关(不能偏题);(3)准确(不能胡说八道);(4)详尽(不能太空太高或者回避细节)。给出评分范围:1-10。给出评分的意义:越高代表综合表现越好。给出评分的第一行输出格式:必须在第一行输出两个数字,分别代表给两个AI助手的评分。用空格分隔评分。给出评分的其余行输出:要求提供一个详尽的分析。给出更多评分限定条件:避免任何偏见;避免回答顺序影响结果。

于是,对于上面这两篇《夏威夷游记》,GPT-4给Vicuna打了10分,给Alpaca打了7分。

理由是:

助手1没有按要求实际撰写博客,只是提供了简要概述,因此得分较低。而助手2则针对近期的一次夏威夷之旅,撰写了一篇详细且引人入胜的旅游博客,重点介绍了文化体验和必游景点,充分满足了用户需求,获得了较高的分数。

研究人员还用同样的方法对比评估了LLaMA-13B、ChatGPT-3.5和Vicuna之间的差异。

对于ChatGPT vs Vicuna,GPT-4给出的评价是:各有千秋,都打9分。

研究人员提到,整个评测过程依然是human-in-the-loop。他们会查看GPT-4的评估是否有道理,并总结各个模型的优缺点。

这种人机协作的方式,比人类直接生成评估更高效。并且“虽然无法科学地证实这一点,但是可以感觉到GPT-4对不少答案的评估结果要好于一般人类”。

基于这样的方法,研究人员最后把Vicuna和其他模型的回答以匿名的方式抛给了GPT-4。

GPT-4最终的打分结果显示,在130亿参数LLaMA基础上微调而来的Vicuna,达到了ChatGPT(GPT-3.5)性能的90%,超过了LLaMA-13B本身和斯坦福的Alpaca。

胜率图也显示,在与LLaMA-13B和Alpaca-13B的比较中,裁判GPT-4明显偏爱Vicuna。Vicuna还和谷歌的Bard打了个有来有回。

训练细节

Vicuna的不俗表现背后,是来自ShareGPT的大约7万条对话数据。

为了确保数据质量,研究人员把HTML转成了markdown,过滤掉了低质量样本,还对过长的对话进行了切分,以适应模型的最大上下文长度。

另外,研究人员也借助了Alpaca的肩膀:增强了Alpaca提供的训练脚本,以更好地处理多轮对话和长序列。具体包括:

内存优化:Vicuna的最大上下文长度为2048(Alpaca为512),对GPU内存要求更高。研究人员利用梯度检查点和内存注意力来解决内存压力。多轮对话:调整训练损失来适应多轮对话任务,并仅根据聊天机器人的输出计算微调损失。降低成本:研究人员使用SkyPilot managed spot来降低成本。该解决方案将70亿参数模型的训练成本从500美元降低至140美元左右。将130亿参数模型的训练成本从1000美元降低至300美元(约合人民币2068元)。

整个Vicuna的训练,用到了8张A100 GPU,训练时间是一天。

One More Thing

说起来,Vicuna这个开源大模型,从里到外都挺AI的。

比如LOGO,就是用Stable Diffusion 2.1生成的。

有意思的一件事是,作者们是自己想出了“Vicuna”这个羊驼系的名字,但他们也就取名问题问了问GPT-4。

而GPT-4跟他们英雄所见略同了:

你们可以管它叫“Vicuña”。

△图源:知乎@SIY.Z

最后的最后,提醒一句,Vicuna只能用于非商业用途哟~

参考链接:[1]https://vicuna.lmsys.org/[2]https://zhuanlan.zhihu.com/p/618389519[3]https://github.com/lm-sys/FastChat

— 完 —

量子位 QbitAI · 头条号签约

关注我们,第一时间获知前沿科技动态

2
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
相关文章
GPT-4惨遭削弱,偷懒摸鱼绝不多写一行代码,OpenAI已介入调查..
标题:GPT-4的编码挑战:当AI交互变得“懒惰”面对用户们纷纷投来的疑惑..
盘点世界上用的最多的聊天通讯软件,第一名居然不是微信..
盘点世界上用的最多的聊天通讯软件,第一名居然不是微信AI聊天室在移动通..
一键开启ChatGPT“危险发言”!研究发现:AI聊天机器人竟有“大bug”,目前..
大数据文摘授权转载自学术头条作者:Hazel Yan编辑:佩奇随着大模型技术..
OpenAI 工程师的工资名列世界第一,年薪高达 660 万元
2023 年上半年全球程序员收入报告显示,OpenAI 工程师的工资名列世界第一..
微软中国CTO:“中国版ChatGPT”需要的高质量中文语料难共享..
中国青年报客户端讯(中青报·中青网记者王林)ChatGPT已引起大量关注,..
Bing Chat引入聊天记录特性,正式放宽至每轮20次、每天200次限制..
IT之家 3 月 29 日消息,微软近日为必应聊天增加了一项备受期待的功能-- ..
7分钟环游地球!ChatGPT开启时空传送门,输入地址一秒穿越..
输入你想去的目的地,GPT将其翻译成坐标,Google Map定位后,便能体验由G..
ChatGPT,深圳人为什么爱读书?
在深圳,拥挤的除了早晚高峰的地铁,CBD写字楼的格子间,和节假日的公园..
多微信聚合聊天功能在手机上怎么实现?
现在很多业务都会通过微信来进行,于是乎,每个人手上都有2个以上的微信..
关于作者
烽火(普通会员)
文章
350
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40329 企业收录2981 印章生成186597 电子证书794 电子名片49 自媒体20815

@2022 All Rights Reserved 浙ICP备19035174号-7
2
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索