> 自媒体 > (AI)人工智能 > GPT4震撼发布!最大变革在「一切数据Token化」
GPT4震撼发布!最大变革在「一切数据Token化」
来源:第一财经
2023-04-24 14:30:39
458
管理

3月15日凌晨,OpenAI正式发布了大家期待已久的GPT-4,很快就在中外科技圈刷屏了。

这款新的AI大模型确实拿出了一些新东西,不但理解能力、可靠性、输入处理长度上都有显著提高,还有一个重大进化——拥有了多模态的能力,简单说就是不仅能看懂文字,也能看懂图片了。

在OpenAI的技术分享和视频演示中,展示了GPT-4在各种标准下的性能提升,比如实事求是回答问题的可能性提高了40%;律师模拟考试成绩从ChatGPT的后10%,直接冲进了前10%,超过了大多数人;看图表完成数据分析、找到搞笑图片中的笑点也不在话下。

不少媒体可能受发布会演示的影响,注意力都集中在这些直观的指标上,不停渲染GPT-4的各种能力多强。

在我看来,这些都是AI技术调优下正常的性能提升,真正值得关注的,是实现图片和文字同时处理的多模态能力,这个能力的底层预示着的其实是「一切数据Token化」的新变革。

为什么这么说呢?

首先,如果你了解AI技术的进步趋势,就会明白今天的这些性能提升是必然的事情。

虽然OpenAI以竞争和安全为由,没有公布GPT-4的任何技术细节,只发布了份手机测评一样的《技术报告》(GPT-4 Technical Report)。

但从模型性能提升的情况看,理解能力、可靠性这几个关键指标的提高,主要是来自于AI模型算法架构和数据集的改进,简单说就是AI的工程调优。

我跟大家谈过AI大模型的「伸缩法则」,当时就提到了OpenAI和谷歌的Deep mind关于AI参数和数据关系的研究,简单说AI大模型中参数规模也不是越大越好,必须和数据匹配才行。第二天,谈Bing上线ChatGPT的时候(点击跳转阅读),继续和大家聊了,目前训练AI大模型的数据用到了1.4 万亿token,数据瓶颈摆在眼前,谷歌和OpenAI都在做算法架构上的优化。

了解这些,你就会明白为什么发布会前盛传,GPT-4参数超过100万亿的说法不靠谱,也就能理解性能提升是很正常的事情。

我可以这样说,未来所有的数据都会Token化,衡量数据质量的标准将不再是清晰、完整这些为人服务的指标,而是能拿来训练AI的数据才是好数据。

可以说,数据Token化,就相当于石油精炼成汽油的过程,会使得人工智能这个发动机得到广泛运用,最终无所不在。未来各个领域的人工智能水平,甚至能用Token化的数据量大小来做评估。

(作者为海银资本管理合伙人)

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
相关文章
关于作者
秋叶无痕(普通会员)
文章
474
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40334 企业收录2981 印章生成190993 电子证书816 电子名片51 自媒体24671

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索