杨净 子豪 发自 凹非寺量子位 报道 | 公众号 QbitAI
首先,请先看一段“正经”的文字:
他笑意中的那份温柔,只想给她好好珍藏,即便这一切不会发生,至少在他的世界里,她是无忧无虑的快乐的。就连他对她的关心,她都不在意了,还有什么不放心的呢?“好,我答应你。不过,如果我们能有个孩子,我一定做个好爸爸。”
桥豆麻袋!!!
这难道不是什么某某天堂、某江文学、某点中文上的小说情节?
误会了误会了。
这是最新发布的全球最大规模中文预训练模型“中文版GPT-3”——PLUG的力作。
270亿的参数规模,跟GPT-3一样是“万能写作神器”。
出于好奇,我第一时间就去上手试了试,没想到只是输入了四个字。
泛起笑意,
有一说一,生成长文本的性能还是相当不错,并且提供了4个文本长度选项(32~512字)。
不过这内容……
难不成,我喜欢XX文的秘密被发现了?
具体来说,整个训练过程分为两个阶段。
第一阶段,以达摩院自研的语言理解模型——StructBERT作为编码器。
简单来说,它是在句子级别和词级别两个层次的训练目标中,加强对语言结构信息的建模,从而提高模型的语法学习能力。
这也使得PLUG具有输入文本双向理解能力,能够生成和输入更相关的内容。
这个过程共训练了300B tokens训练数据。
第二阶段,将这个编码器用于生成模型的初始化,并外挂一个6层、8192个隐藏层节点数的解码器,共计训练了100B tokens的训练数据。
此外,PLUG还能为目标任务做针对性优化。
上一回说到,GPT-3并没有利用微调和梯度更新,而是通过指定任务、展示少量演示,来与模型文本进行交互,完成各种任务。
因此在面对新任务时候,不需要重新收集大量的带标签数据。但不可避免的,生成的效果不足。
比如,犯低级错误就是GPT-3被人诟病比较多的一点。
而PLUG的能力更加全面,既可以实现与GPT-3类似的零样本生成功能,也可以利用下游训练数据微调(finetune)模型,提升特定任务的生成质量。
当然,效果实现的关键,还少不了算力和数据。
PLUG负责人表示,原本计划用128张A100训练120天炼成,不过由于阿里云、算法优化等达摩院多方力量的参与,以及加速手段的有效利用,成功将日程缩短到三分之一。
最后,只烧了35天就达到了这样的效果。
前面也提到,PLUG的参数量达到了270亿,中文训练数据量也达到了1T以上。
在语言理解任务上,PLUG以80.614分刷新了CLUE分类任务榜单记录。
而这样的开源开放,正好是这个技术团队的一大底色。
去年,阿里达摩院发布了自研深度语言模型体系,包括6大自研模型。
通用语言模型StructBERT、多模态语言模型StructVBERT、多语言模型VECO、生成式语言模型PALM……他们一直在致力于陆陆续续将模型开源出来。
永春透露,在PLUG发布这段期间,达摩院宣布将开源阿里巴巴语言模型体系部分重要模型,目前正在走流程中。
至于之后的计划,团队表示2000亿级的参数规模正在规划中,并进一步提升文本生成质量。
而在应用领域,他们还将专门针对医疗领域做下游数据训练。
最终目标是希望将这个模型实际落地,提升NLP技术在方方面面的实力,比如能源、通信、司法等。
也诚如阿里达摩院语言技术实验室负责人司罗所说,
达摩院NLP团队将进一步攻克自然语言处理领域科研难题,完善中文及跨语言人工智能基础设施,让AI没有难懂的语言,并探索通用人工智能之路。
对了,PLUG刚刚完成最后一波调控,目前已开放了测试体验接口(仅供学术目的测试,需同意其相关约定)。
— 完 —
量子位 QbitAI · 头条号签约
关注我们,第一时间获知前沿科技动态
相关文章
猜你喜欢