> 自媒体 > (AI)人工智能 > 少即是多!10亿参数小巨人击败ChatGPT
少即是多!10亿参数小巨人击败ChatGPT
来源:新智元
2024-07-09 21:25:04
254
管理

编辑:耳朵 庸庸

【新智元导读】只有10亿参数的xLAM-1B在特定任务中击败了LLM霸主:OpenAI的GPT-3.5 Turbo和Anthropic的Claude-3 Haiku。上个月刚发布的苹果智能模型只有30亿参数,就连奥特曼都表示,我们正处于大模型时代的末期。那么,小语言模型(SLM)会是AI的未来吗?

大语言模型的Scaling Law被一些人视为「金科玉律」,但另一些人却不以为意。前阵子,香港大学马毅教授就公开宣称,「如果相信只靠Scaling Law就能实现AGI,你该改行了」。

确实有很多模型不是单纯靠资源的堆砌,而是凭借创新能力脱颖而出。验证了一条不同于Scaling Law的道路——少即是多。

xLAM-1B就是如此,只有10亿参数,但是在功能调用任务中表现优于更大规模的模型,包括OpenAI的GPT-3.5 Turbo和Anthropic的Claude-3 Haiku。

科技公司一直在争相建立最大的大语言模型。例如,今年4月,Meta公司发布了拥有4000亿参数的Llama 3,它所包含的参数数量是2022年OpenAI最初的ChatGPT模型的两倍。

尽管尚未得到证实,但GPT-4估计拥有约1.8万亿个参数。

不过,在过去几个月里,包括苹果和微软在内的一些最大的科技公司都推出了小语言模型。

这些模型的大小仅为LLM对应模型的一小部分,但在许多基准测试中,它们在文本生成方面可以与LLM相媲美,甚至更胜一筹。

6月10日,在苹果公司的全球开发者大会上,发布了拥有约30亿参数的苹果智能模型。

4月底,微软发布了其Phi-3 SLM系列,拥有38亿到140亿个参数。

在一系列测试中,微软最小的模型Phi-3-mini与OpenAI的GPT-3.5(1750亿个参数)不相上下,其表现也优于谷歌的Gemma(70亿个参数)。

测试通过向模型提出有关数学、哲学、法律等方面的问题,评估了模型对语言的理解能力。

更有趣的是,拥有70亿个参数的微软Phi-3-small在许多基准测试中的表现都明显优于GPT-3.5。

波士顿东北大学研究语言模型Aaron Müller并不惊讶SLM在某些功能上可以与LLM相提并论。

Müller说,「这是因为一味增加参数数量并不是提高模型性能的唯一方法,在更高质量的数据上进行训练也能产生类似的结果。」

例如,微软的Phi模型是在经过微调的「教科书质量」数据上训练出来的,这些数据的风格更加一致,比LLM通常依赖的来自互联网的高度多样化文本更容易学习。

同样,苹果公司也在高质量、更复杂的数据集上训练SLM。

Müller表示,更重要的是,SLM可以使语言模型的使用平民化。

迄今为止,人工智能的开发一直集中在几家有能力部署高端基础设施的大公司手中,而其他规模较小的公司和实验室则不得不支付高昂的费用来获得授权。

由于SLM可以在价格更低廉的硬件上轻松训练,因此资源有限的人更容易获得SLM。

SLM的兴起正值LLM之间的性能差距迅速缩小,科技公司希望能在Scaling Law之外,探索其他性能升级途径。

在4月份的一次活动中,OpenAI 的首席执行官Altman表示,他相信我们正处于大模型时代的末期。「我们将以其他方式让模型变得更好。」

也就是说,经过精心策划的SLM向构建可解释性人工智能更近了一步。

对于像苏黎世联邦理工学院计算机科学研究员Alex Warstadt这样的研究人员来说,SLM还能为一个长期存在的科学问题提供新的见解:儿童是如何用很少的文字数据就学会语言和思维的。

Warstadt和包括东北大学Müller在内的一批研究人员一起组织了BabyLM挑战赛,参赛者要在小数据上优化语言模型训练。

SLM不仅有可能揭开人类认知的新秘密,还有助于改进生成式人工智能。

在儿童13岁时,他们已经接触了约1亿个单词,在语言方面比聊天机器人更胜一筹,但他们只能获得0.01%的数据。

Warstadt说,虽然没人知道是什么让人类如此高效,但「在小规模上进行高效的类人学习,当扩展到LLM规模时,可能会带来巨大的改进」。

重塑AI的未来:从云到设备

xLAM-1B展现出的端侧AI的发展潜力,很可能标志着人工智能领域的重大转变——挑战「模型越大越好」的观念,让人工智能在消耗有限资源的条件下也能持续生长。

目前,由于所涉及模型的规模和复杂性,许多先进的人工智能功能都依赖于云计算。

如果像xLAM-1B这样的较小模型也能提供类似的功能,就能让更强大的人工智能助手直接在用户的设备上运行,从而提高响应速度,并解决与基于云的人工智能相关的隐私问题。

随着边缘计算和物联网设备的激增,对更强大的设备上人工智能功能的需求也将激增。

xLAM-1B的成功可能会催生新一轮的人工智能开发浪潮,其重点是创建为特定任务量身定制的超高效模型,而不是「样样通」的庞然大物。

这可能会带来一个更加分布式的人工智能生态系统,在这个生态系统中,专业模型在设备网络中协同工作,可能会提供更强大、反应更快、更能保护隐私的人工智能服务。

这一发展还能使人工智能能力民主化,让较小的公司和开发人员无需大量计算资源就能创建复杂的人工智能应用。

此外,它还可以减少人工智能碳足迹,因为较小的模型在训练和运行时所需的能源要少得多。

xLAM-1B给业界带来的冲击有很多,但有一点是显而易见的:在人工智能的世界里,大卫刚刚证明了他不仅可以与歌利亚竞争,还有可能将其淘汰。人工智能的未来可能不在被巨头所操控的云端,而是在你自己手中。

参考资料:

https://venturebeat.com/ai/salesforce-proves-less-is-more-xlam-1b-tiny-giant-beats-bigger-ai-models/

https://x.com/SFResearch/status/1807811770267971984?t=j_LOjgVPy41ZpjwkoXmRiQ&s=19

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
相关文章
和你聊天美女是男的!13人全部落网:与男网友聊天,以过生日为借口要钱,涉..
网上喜欢的“女孩”过生日,娇滴滴地要你给她送一束花,你送还是不送?近..
GPT-4震惊四座,中国创业者激战“小模型” | Future
当瓦特蒸汽机的齿轮转动了第一圈;当乔布斯从牛皮纸袋掏出Macbook;当Cha..
县领导与女干部不雅聊天记录曝光,被免职!
近日,有网友在短视频平台发布视频信息,举报陕西宁强县委常委、高寨子街..
微软斯坦福新算法,杜绝AI灭绝人类风险!GPT-4自我迭代过程可控..
编辑:润 贝果【新智元导读】微软斯坦福研究人员发表新论文,提出STOP系..
GPT-4插件与联网功能开放测试,我们实测之后发现这东西有点蠢..
两种功能都开放了的账号很幸运,知危编辑部隔壁的差评编辑部的 Plus 账号..
GPT-4解出难倒陶哲轩奥数题?语言IQ已达152,但空间推理巨差..
编辑:Aeneas 拉燕【新智元导读】近日,一名外国小哥测出,GPT-4语言能力..
从OpenAI VPT,看视频预训练
由于RL收敛比较慢,作者也采用了不少方法加速训练,其中很重要的一点是Se..
美女店长出轨多次,不雅聊天记录流出,内容非常露骨..
亲,原创不易,麻烦动动你的小手、点赞,转发,评论一下,谢谢^-^亲,原..
启明星辰信息技术集团股份有限公司董事长严望佳:ChatGPT飞速发展 但也带来..
“最近ChatGPT成为热点,AI发展和大数据分不开的,大数据可持续高质量发..
关于作者
感恩的人(普通会员)
文章
533
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40348 企业收录2981 印章生成209365 电子证书892 电子名片56 自媒体30867

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索