> 自媒体 > (AI)人工智能 > 来自硅谷第3期 企业级ChatGPT开发入门实战直播21课-42
来自硅谷第3期 企业级ChatGPT开发入门实战直播21课-42
来源:硅谷ChatGPT和LLM中心
2023-06-23 17:14:47
489
管理

本文讲解openai 的微调(Fine-tuning)技术,这是一种定制模型以适应自己应用程序的方法。微调(Fine-tuning)技术通过API获得更好的模型结果,它的优势包括:

比提示设计更高质量的结果能够训练更多的样例较短的提示可节省标记更低的延迟请求

GPT-3已经对来自开放互联网的大量文本进行了预训练。当给出少量样例的提示时,它可以直觉地识别出你正在执行的任务,并生成合理的完成,通常被称为“小样本学习”,微调通过在比提示更多的示例上进行训练来改进小样本学习,在大量任务上取得更好的结果。一旦对模型进行了微调,就不需要再在提示中提供示例了,这样可以节省成本并降低延迟请求。

微调(Fine-tuning)包括以下步骤:

准备和上传训练数据训练新的微调模型使用微调模型

OpenAI微调可用于以下四种基本模型:davinci、curie、babbage和ada。微调的优势是可以增加更多的数据,可以继续微调已经微调过的模型,而不需要从头开始,这样可以节省成本。

在OpenAI微调示例中,我们将对ada模型进行微调,以区分棒球和曲棍球这两项运动。

从sklearn.datasets中加载数据集,示例代码如下:

from sklearn.datasets import fetch_20newsgroupsimport pandas as pdimport openaicategories = ['rec.sport.baseball', 'rec.sport.hockey']sports_dataset = fetch_20newsgroups(subset='train', shuffle=True, random_state=42, categories=categories)

首先我们进行数据探索,查看数据本身,例如,查询第1条数据:

print(sports_dataset['data'][0])

这是棒球类的一个样本,是一封发给邮件列表的电子邮件。以上代码的运行结果为:

From: dougb@comm.mot.com (Doug Bank)

Subject: Re: Info needed for Cleveland tickets

Reply-To: dougb@ecs.comm.mot.com

Organization: Motorola Land Mobile Products Sector

Distribution: usa

Nntp-Posting-Host: 145.1.146.35

Lines: 17

In article , bohnert@leland.Stanford.EDU (matthew bohnert) writes:

|> I'm going to be in Cleveland Thursday, April 15 to Sunday, April 18.

|> Does anybody know if the Tribe will be in town on those dates, and

|> if so, who're they playing and if tickets are available?

The tribe will be in town from April 16 to the 19th.

There are ALWAYS tickets available! (Though they are playing Toronto,

and many Toronto fans make the trip to Cleveland as it is easier to

get tickets in Cleveland than in Toronto. Either way, I seriously

doubt they will sell out until the end of the season.)

--

Doug Bank Private Systems Division

dougb@ecs.comm.mot.com Motorola Communications SeCTOr

dougb@nwu.edu Schaumburg, Illinois

课程名称:企业级ChatGPT开发入门实战直播21课

讲师介绍

现任职于硅谷一家对话机器人CTO,专精于Conversational AI

在美国曾先后工作于硅谷最顶级的机器学习和人工智能实验室

CTO、杰出AI工程师、首席机器学习工程师

美国一家Talents Sourcing公司的Founder及CTO

21本人工智能及数据科学相关书籍作者。

NLP&ChatGPT&LLMs课程备注

1、本课程为技术型知识付费直播课,需要进行源码交付及一年课程技术答疑指导,请添加Gavin导师微信:NLP_Matrix_Space获得相关的视频、代码、资料等。

2、课程面向Developers及Researchers,学习课程需要有基本的Python代码编程经验。课程针对没有基础的学员录制了Python及Transformer免费赠送的基础课,以帮助零基础学员平滑过渡到正式课程的学习。

3、课程深入、系统、使用的讲解Transformers、ChatGPT、LLMs等NLP生产级代码实战及科学研究。核心围绕模型、数据、工具三大维度展开。

4、购买本课后,课件及相关的资料、源码等,仅用于个人学习和技术交流,不能作为其他和商业用途,为了保护知识产权,购买后不退款不更换课程。

Throughout this course, we firmly believe that the true power and distinctiveness of language model applications lie in their ability to connect with external data sources and actively interact with their environments. By incorporating data-awareness, we can enhance the depth and breadth of information available to the language models, enabling them to deliver more accurate and insightful responses. Additionally, by embracing an agentic approach, we empower language models to engage and respond dynamically to their surroundings, creating richer user experiences. Further, the course will help learners to explore the top best papers and their implementations in NLP&ChatGPT&LLMs.

报名课程请联系:

Gavin老师:NLP_Matrix_Space

Sam工作人员NLP_ChatGPT_LLM

我们的两本最新书籍年底即将出版:

《企业级Transformer&ChatGPT解密:原理、源码及案例》《企业级Transformer&Rasa解密:原理、源码及案例》

《企业级Transformer&ChatGPT解密:原理、源码及案例》本书以Transformer和ChatGPT技术为主线,系统剖析了Transformer架构的理论基础、模型设计与实现,Transformer语言模型GPT与BERT,ChatGPT技术及其开源实现,以及相关应用案例。内容涉及贝叶斯数学、注意力机制、语言模型、最大似然与贝叶斯推理等理论,和Transformer架构设计、GPT、BERT、ChatGPT等模型的实现细节,以及OpenAI API、ChatGPT提示工程、类ChatGPT大模型等应用。第一卷介绍了Transformer的Bayesian Transformer思想、架构设计与源码实现,Transformer语言模型的原理与机制,GPT自回归语言模型和BERT自编码语言模型的设计与实现。第二卷深入解析ChatGPT技术,包括ChatGPT发展历史、基本原理与项目实践,OpenAI API基础与高级应用,ChatGPT提示工程与多功能应用,类ChatGPT开源大模型技术与项目实践。

ChatGPT 技术:从基础应用到进阶实践涵盖了ChatGPT技术和OpenAI API的基础和应用,分为8个章节,从ChatGPT技术概述到类ChatGPT开源大模型技术的进阶项目实践。

1. ChatGPT技术概述:主要介绍了GPT-1、GPT-2、GPT-3、GPT-3.5和GPT-4的发展历程和技术特点,以及ChatGPT技术的基本原理和项目案例实战。

2. OpenAI API基础应用实践:主要介绍了OpenAI API模型及接口概述,以及如何使用OpenAI API进行向量检索和文本生成。

3. OpenAI API进阶应用实践:主要介绍了如何使用OpenAI API基于嵌入式向量检索实现问答系统,如何使用OpenAI API对特定领域模型进行微调。

4. ChatGPT提示工程基础知识:主要介绍了如何构建优质提示的两个关键原则,以及如何迭代快速开发构建优质提示。

5. ChatGPT提示工程实现多功能应用:主要介绍了如何使用ChatGPT提示工程实现概括总结、推断任务、文本转换和扩展功能。

6. ChatGPT提示工程构建聊天机器人:主要介绍了聊天机器人的应用场景,以及如何使用ChatGPT提示工程构建聊天机器人和订餐机器人。

7. 类ChatGPT开源大模型技术概述:主要介绍了类ChatGPT开源大模型的发展历程和技术特点,以及ChatGLM项目案例实践和LMFlow项目案例实践。

8. 类ChatGPT开源大模型进阶项目实践:主要介绍了类ChatGPT开源大模型的进阶项目实践,包括基于LoRA SFT RM RAFT技术进行模型微调、基于P-Tuning等技术对特定领域数据进行模型微调、基于LLama Index和Langchain技术的全面实践,以及使用向量检索技术对特定领域数据进行模型微调。

本书适用于NLP工程师、AI研究人员以及对Transformer和ChatGPT技术感兴趣的读者。通过学习,读者能够系统掌握Transformer理论基础,模型设计与训练推理全过程,理解ChatGPT技术内幕,并能运用OpenAI API、ChatGPT提示工程等技术进行项目实践。

Transformer作为目前NLP领域最为主流和成功的神经网络架构,ChatGPT作为Transformer技术在对话系统中的典型应用,本书内容涵盖了该领域的最新进展与技术。通过案例实践,使理论知识变成技能,这也是本书的独特之处。

《企业级Transformer&Rasa解密:原理、源码及案例》:是一本深入介绍Rasa对话机器人框架的实战开发指南。本书分为两卷,第一卷主要介绍基于Transformer的Rasa Internals解密,详细介绍了DIETClassifier和TED在Rasa架构中的实现和源码剖析。第二卷主要介绍Rasa 3.X硬核对话机器人应用开发,介绍了基于Rasa Interactive Learning和ElasticSearch的实战案例,以及通过Rasa Interactive Learning发现和解决对话机器人的Bugs案例实战。

第一卷中介绍了Rasa智能对话机器人中的Retrieval Model和Stateful Computations,解析了Rasa中去掉对话系统的Intent的内幕,深入研究了End2End Learning,讲解了全新一代可伸缩的DAG图架构的内幕,介绍了如何定制Graph NLU及Policies组件,讨论了自定义GraphComponent的内幕,从Python角度分析了GraphComponent接口,详细解释了自定义模型的create和load内幕,并讲述了自定义模型的languages及Packages支持。深入剖析了自定义组件Persistence源码,包括自定义对话机器人组件代码示例分析、Resource源码逐行解析、以及ModelStorage、ModelMetadata等逐行解析等。介绍了自定义组件Registering源码的内幕,包括采用Decorator进行Graph Component注册内幕源码分析、不同NLU和Policies组件Registering源码解析、以及手工实现类似于Rasa注册机制的Python Decorator全流程实现。讨论了自定义组件及常见组件源码的解析,包括自定义Dense Message Featurizer和Sparse Message Featurizer源码解析、Rasa的Tokenizer及WhitespaceTokenizer源码解析、以及CountVectorsFeaturizer及SpacyFeaturizer源码解析。深入剖析了框架核心graph.py源码,包括GraphNode源码逐行解析及Testing分析、GraphModelConfiguration、ExecutionContext、GraphNodeHook源码解析以及GraphComponent源码回顾及其应用源码。

第二卷主要介绍了基于Rasa Interactive Learning和ElasticSearch的实战案例,以及通过Rasa Interactive Learning发现和解决对话机器人的Bugs案例实战。介绍了使用Rasa Interactive Learning来调试nlu和prediction的案例实战,使用Rasa Interactive Learning来发现和解决对话机器人的Bugs案例实战介绍了使用Rasa Interactive Learning透视Rasa Form的NLU和Policies的内部工作机制案例实战,使用ElasticSearch来实现对话机器人的知识库功能,并介绍了相关的源码剖析和最佳实践,介绍了Rasa微服务和ElasticSearch整合中的代码架构分析,使用Rasa Interactive Learning对ConcertBot进行源码、流程及对话过程的内幕解密,介绍了使用Rasa来实现Helpdesk Assistant功能,并介绍了如何使用Debug模式进行Bug调试,使用Rasa Interactive Learning纠正Helpdesk Assistant中的NLU和Prediction错误,逐行解密Domain和Action微服务的源码。

本书适合对Rasa有一定了解的开发人员和研究人员,希望通过本书深入了解Rasa对话机器人的内部工作原理及其源代码实现方式。无论您是想要深入了解Rasa的工作原理还是想要扩展和定制Rasa,本书都将为您提供有价值的参考和指导。

《企业级Transformer&ChatGPT解密:原理、源码及案例》、《企业级Transformer&Rasa解密:原理、源码及案例》,是您深入学习的好选择,年底即将重磅出版,欢迎购买!

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
相关文章
在这家网店消费后,他们都接到了境外诈骗电话……
来源:检察日报正义网 “小k”按照一毛钱一条的价格给我“料子”,然后我..
Meta开源1750亿参数GPT-3,打脸OpenAI?网友点评:GPT-4都要来了..
编辑:LRS【新智元导读】OpenAI的GPT-3已发布两年,但还是只听说过,没见..
手把手教你开放个人微信公众号留言功能
想了解普通人逆袭的方法请关注我,点赞并在评论区联系我。个人微信公众号..
21记者提问夏季达沃斯联席主席:ChatGPT对你影响几何?..
作 者丨郑青亭编 辑丨和佳(2023夏季达沃斯论坛新闻发布会现场 郑青亭/摄..
微信“小号”来了!
据证券时报消息2月3日微信平台显示使用同一手机号注册辅助账号的功能已全..
除了“烧钱”的硬件集群,阻止算法工程师训练GPT-3的原因是什么..
撰文 | 成诚2020 年,最轰动的 AI 新闻莫过于 OpenAI 发布的 GPT-3 了。..
刚刚,传来3个重要消息,人工智能遭受反围剿?解读如下..
做人,勿以恶小而为之,勿以善小而不为,这是基本准则!大道至简,也暗藏..
聊天框架,只需这七步!手把手教你谈恋爱
#夏日成长计划#哈喽大家好!我是一森一个从事情感行业五年的从业者。很多..
沟通技巧|4个让人感到舒服的聊天技巧
1、面对争执,沉默是金海明威曾说:我们花了两年,学会说话却要花六十年..
关于作者
素素鴉(普通会员)
文章
610
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40369 企业收录2981 印章生成216707 电子证书945 电子名片57 自媒体34015

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索