> 自媒体 > (AI)人工智能 > ChatGPT/GPT4开源“平替”汇总,持续更新
ChatGPT/GPT4开源“平替”汇总,持续更新
来源:智研古今
2023-05-16 01:01:28
791
管理

ChatGPT爆火出圈,国内很多高校、研究机构和企业都发出类似ChatGPT的发布计划。ChatGPT没有开源,复现难度极大,即使到现在GPT3的完全能力也没有任何一个单位或者企业进行了复现。刚刚,OpenAI又官宣发布了图文多模态的GPT4模型,能力相对ChatGPT又是大幅提升,似乎闻到了以通用人工智能主导的第四次工业革命的味道。

无论是国外还是国内,目前距离OpenAI的差距越来越大,大家都在紧锣密鼓的追赶,以致于在这场技术革新中处于一定的优势地位,目前很多大型企业的研发基本上都是走闭源路线,ChatGPT和GPT4官方公布的细节很少,也不像之前发个几十页的论文介绍,OpenAI的商业化时代已经到来。当然,也有一些组织或者个人在开源平替上进行了探索,本文章汇总如下,本人也会持续跟踪,有更新的开源平替及时更新此处或者本人github上:

https://github.com/chenking2020/FindTheChatGPTer

ChatYuan

ChatYuan(元语AI)是由元语智能开发团队开发和发布的,自称第一个国内最早的一个功能型对话大模型,可以写文章、写作业、写诗歌、做中英文间的翻译;一些法律等特定领域问题也可以提供相关信息。该模型目前只支持中文,github链接是:

https://github.com/clue-ai/ChatYuan基本原理:

从披露的技术细节看,底层采用7亿参数规模的T5模型,并基于PromptClue进行了监督微调形成了ChatYuan。该模型基本上是ChatGPT技术路线的三步的第一步,没有实现奖励模型训练和PPO强化学习训练。

监督微调类似PromptClue

ChatYuan对话系统和示例

Colossal AI

最近,ColossalAI开源了他们的ChatGPT实现。分享了他们的三步策略,完整实现了ChatGPT核心的技术路线:第一阶段:SFT监督微调阶段,该开源项目没有实现,这个比较简单,因为ColossalAI无缝支持Huggingface,因此可以用Huggingface的Trainer函数几行代码轻松实现,从其实现上看,其支持GPT2、OPT和BLOOM模型;第二阶段:奖励模型(RM)训练阶段,即项目Examples里train_reward_model.py部分;第三阶段:强化学习(RLHF)阶段,即项目train_prompts.py,实现PPO训练详细细节可以参考其Github:

https://github.com/hpcaitech/ColossalAI

ChatGLM

ChatGLM是清华技术成果转化的公司智谱AI开源的GLM系列的对话模型,支持中英两个语种,目前开源了其62亿参数量的模型。其继承了GLM之前的优势,在模型架构上进行了优化,从而使得部署和应用门槛变低,实现大模型在消费级显卡上的推理应用。详细技术可以参考其github:

https://github.com/THUDM/ChatGLM-6B

从技术路线上看,其实现了ChatGPT强化学习人类对齐策略,使得生成效果更佳贴近人类价值,其目前能力域主要包括自我认知、提纲写作、文案写作、邮件写作助手、信息抽取、角色扮演、评论比较、旅游建议等,目前其已经开发了正在内测的1300亿的超大模型,算是目前开源平替里面参数规模较大的对话大模型。

ChatGLM 自带前端对话演示系统

LLaMa

LLaMA是由Facebook 母公司Meta发布的全新人工智能大型语言模型,在生成文本、对话、总结书面材料、证明数学定理或预测蛋白质结构等任务上方面表现良好。LLaMA模型支持20种语言,包括拉丁语和西里尔字母语言,目前看原始模型并不支持中文。

LLaMA目前比较火的两个顶流开源项目是ChatLLaMA和stanford_alpaca

ChatLLaMA是由Nebuly AI推出的基于人类反馈强化学习的LLaMA AI聊天机器人的开源实现,它的技术路线类似 ChatGPT,该项目上线刚刚 2 天,狂揽 5.2K 星。其github地址是:

https://github.com/nebuly-ai/nebullvm/tree/main/apps/accelerate/chatllama

ChatLLaMA 训练过程算法实现主打比 ChatGPT 训练更快、更便宜,据说能快近15倍,主要特色有:

完整的开源实现,允许用户基于预训练的 LLaMA 模型构建 ChatGPT 风格的服务;LLaMA 架构更小,使得训练过程和推理速度更快,成本更低;内置了对 DeepSpeed ZERO 的支持,以加速微调过程;支持各种尺寸的 LLaMA 模型架构,用户可以根据自身偏好对模型进行微调。

另外一个比较火的是最近刚发布的alpaca(羊驼模型),是由斯坦福基于 Meta 的 LLaMA 7B 模型微调出一个新模型,其基本原理是让 OpenAI 的 text-davinci-003 模型以 self-instruct 方式生成 52K 指令样本,以此来微调LLaMA。该项目已将训练数据、生成训练数据的代码和超参数开源,模型文件尚未开源,以一天多达到5.6K星的关注度,估计很快会开源其模型文件供大家使用。其github地址为:

https://github.com/tatsu-lab/stanford_alpaca

同时公布了一个DEMO地址:

https://alpaca-ai-custom6.ngrok.io

OpenChatKit

OpenChatKit由前OpenAI研究员所在的Together团队,以及LAION、Ontocord.ai团队共同打造。OpenChatKit包含200亿个参数,用GPT-3的开源版本GPT-NoX-20B进行微调。同时,不同ChatGPT的强化学习,OpenChatKit采用一个60亿参数的审核模型,对不合适或者是有害的信息进行过滤,确保生成内容的安全和质量。其github地址为:

https://github.com/togethercomputer/OpenChatKit

BELLE

基于 Stanford Alpaca ,实现基于Bloom的监督微调。Stanford Alpaca 的种子任务都是英语,收集的数据也都是英文,该开源项目是促进中文对话大模型开源社区的发展,针对中文做了优化,模型调优仅使用由ChatGPT生产的数据(不包含任何其他数据)。项目包含以下内容:

175个中文种子任务生成数据的代码2M生成的数据基于BLOOMZ-7B1-mt优化后的模型

github地址为

https://github.com/LianjiaTech/BELLE

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
相关文章
和ChatGPT聊天竟如此费水?回答50个问题,它要“喝掉”500毫升水..
AI成为今年科技领域的绝对热点,先进的AI模型不仅需要算力强大的芯片做支..
40分钟不雅场面曝光,浙江00后女大学生1V5,聊天记录堪比小黄书..
可以想象吗?一个普通女孩,因为一个短短9秒的视频,被无耻之徒捏造成与..
男子讲述被骗缅北经历:专找境外女性华人聊天,枪口下“报平安”..
日前,缅北电信网络诈骗窝点引发各方广泛关注。不少网友向长江云新闻记者..
建议禁止chatGPT在国内的使用。
(素材均为网络素材,如有侵权请联系立即删除)随着科技的飞速进步,我们..
ChatGPT爆火,人工智能到底是怎样“练成”的?
近来,人工智能聊天机器人ChatGPT实火。ChatGPT拥有强大的信息整合能力、..
OpenAI 升级 DALL-E 3:联动 ChatGPT、图像生成更准确
近日OpenAI 宣布推出 DALL-E 3,并直接内置到 ChatGPT 中,新版进一步优..
微软英伟达参投,OpenAI 竞争对手 Inflection AI 获 13 亿美元融资 | 懂点A..
掌握AIGC脉动,把握科技脉搏。动点科技每天收集汇总全球AIGC进展与热点,..
ChatGPT爆火,真那么神?我们会失业吗?
‍能写代码写作业能做题写剧本甚至能代写辞职信……ChatGPT最近爆火!Cha..
江西一女主播,当场被抓!
近日,在上饶余干一手机店内一女子正打着电话“老公,下班了吗?今天辛不..
关于作者
赶海的老阿姨..(普通会员)
文章
656
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40369 企业收录2981 印章生成216706 电子证书945 电子名片57 自媒体34015

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索