> 自媒体 > (AI)人工智能 > OpenAI的新突破,人类惊呼“太恐怖了”
OpenAI的新突破,人类惊呼“太恐怖了”
来源:商业秀
2023-05-16 06:05:25
428
管理

文|许档 编| 展洋

出品|商业秀

现如今,只要ChatGPT一有任何风吹草动,就会马上搅动国内外各大科技公司、投资人和创业公司的心。

北京时间3月15日的凌晨,OpenAI有了新突破。在经历了多次迭代和改进升级后,OpenAI重磅发布了更为强大的版本GPT-4。而且,这个版本的具备强大的识图能力,文字输入限制也提升至2.5万字;甚至可以支持文字和图片的混合输入。

此外,GPT-4的回答在准确性层面也显著提升,还能够生成歌词、创意文本从而实现风格变化。同时,GPT-4在各类专业测试及学术基准上也表现优良。

这操作,相当于深夜扔出了一个炸弹,让国内外的ChatGPT迷们为之惊叹。

就连猎豹移动董事长兼CEO、猎户星空董事长傅盛都在凌晨发布视频惊呼:“真的是太恐怖了!你说我们人类还学什么呢?它一个人工智能模型就能考出这样的分数,这才是它刚刚开始啊!哎,人类的教育该何去何从呢?说实话,我都有点迷茫了!”

随后傅盛称,自己只是刚刚使用,但他想告诉大家,“GPT-4非常非常恐怖,是整个世界的生产力变革。但不论如何,一个技术浪潮的来临,只有先拥抱,所有的人都应该去关心新的AI,新的ChatGPT-4。”

这种所谓的“恐怖”,一幕幕惊叹,感觉又是人类再次被AI碾压的一天。这很难不让人想起2016年往事:谷歌旗下的DeepMind团队向李世石九段,发起了围棋五番棋挑战并轻松获胜。

AI机器人“阿尔法狗”(AlphaGo)及其继任者,尚且全面碾压人类棋手。何况,迭代之后似乎无所不能的ChatGPT-4。

但人类在惊叹“恐怖”的同时,似乎也忘记了一点:人工智能有Bug,也会犯错,或大或小,像极了人类。

ChatGPT更是如此,即便饲喂了如此多的数据,迭代了如此多的版本,OpenAI也还是表示:GPT-4仍旧会产生幻觉、生成错误答案,出现推理性错误。

更值得玩味的是,OpenAI发布GPT-4的节点甚为有趣,因为国内的科技公司百度将于明天(3月16日)对外发布文心一言,外界对此极为期待。

01 所谓“震撼”

根据OpenAI的介绍,它是一个大型多模态模型,能接受图像和文本输入,再输出正确的文本回复。

但关于GPT-4,已经有多家媒体把它吹爆了。毋庸置疑,没有对比就没有伤害。和ChatGPT-3.5相比,确实强大了不少。

GPT-4实现了以下几个方面的飞跃式提升:强大的识图能力;文字输入限值提升至2.5万字;回答准确性显著提高;能够生成歌词、创意文本,实现风格变化。

比如在日常对话中,GPT-4与GPT-3.5之间的差距或许微妙。但当任务的复杂度足够高,差异就会很明显,GPT-4就表现出更可靠、更具创造性,还能能处理更细致的指令。

根据OpenAI公布的实验数据,GPT-4在各种专业测试和学术基准上的表现与人类水平相当。比如,它通过了模拟律师考试,且分数在应试者的前10% 左右;相比之下,GPT-3.5的得分在倒数10% 左右。

但相较于此前的GPT模型而言,GPT-4最大的突破之一是在文本之外还能够处理图像内容。OpenAI表示,用户同时输入文本和图像的情况下,它能够生成自然语言和代码等文本。

目前在官网上,OpenAI已经给出了一系列相关案例。例如,在GPT-4输入图片并设问“这些图片有何可笑之处?详细描述一下。”

GPT-4在 TruthfulQA 等外部基准测试方面也取得了进展,OpenAI 测试了模型将事实与错误陈述的对抗性选择区分开的能力,结果如下图所示。

实验结果表明,GPT-4基本模型在此任务上仅比 GPT-3.5略好;然而,在经过 RLHF 后训练之后,二者的差距就很大了。以下是 GPT-4的测试示例 —— 并不是所有时候它都能做出正确的选择。

该模型在其输出中可能会有各种偏见,OpenAI 在这些方面已经取得了进展,目标是使建立的人工智能系统具有合理的默认行为,以反映广泛的用户价值观。

GPT-4通常缺乏对其绝大部分数据截止后(2021年9月)发生的事件的了解,也不会从其经验中学习。它有时会犯一些简单的推理错误,这似乎与这么多领域的能力不相符,或者过于轻信用户的明显虚假陈述。有时它也会像人类一样在困难的问题上失败,比如在它生成的代码中引入安全漏洞。

GPT-4预测时也可能出错但很自信,意识到可能出错时也不会 double-check。有趣的是,基础预训练模型经过高度校准(其对答案的预测置信度通常与正确概率相匹配)。然而,通过 OpenAI 目前的后训练(post-training)过程,校准减少了。

同时,与早期GPT模型类似,GPT-4也具备局限性。GPT-4依然会形成推理错误,因而在使用语言模型输出时需要非常小心,最好以人工核查、附加上下文或避免高风险使用的方式予以辅助。

“GPT4的模型发布,本身是技术持续升级迭代发展的必然阶段。AI行业每一年都会有些新模型发布,趋势就是大模型、多模态。”

在接受21世纪经济报道记者采访时,IDC中国研究总监卢言霞表示,“多模态肯定是必然趋势,毕竟AI要真正达到人的智慧,需要处理多模数据。且在各行业场景里,大都是涉及多模态数据的处理。”

03 担忧与接受

对于ChatGPT,人类一直担心的是,对于超出安全边界和敏感的问题,怎么去训练和规避以及提升它的安全性能?

OpenAI 表示,与之前的 GPT 模型一样,GPT-4基础模型经过训练可以预测文档中的下一个单词。OpenAI 使用公开可用的数据(例如互联网数据)以及已获得许可的数据进行训练。

训练数据是一个网络规模的数据语料库,包括数学问题的正确和错误解决方案、弱推理和强推理、自相矛盾和一致的陈述,以及各种各样的意识形态和想法。

因此,当提出问题时,基础模型的回应可能与用户的意图相去甚远。为了使其与用户意图保持一致,OpenAI 依然使用强化学习人类反馈 (RLHF) 来微调模型的行为。而该模型的能力似乎主要来自预训练过程 ——RLHF 不会提高考试成绩(甚至可能会降低它)。但是模型的控制来自后训练过程 —— 基础模型甚至需要及时的工程设计来回答问题。

关于风险和安全,OpenAI 研究团队称,一直在对 GPT-4进行迭代,使其从训练开始就更加安全和一致,所做的努力包括预训练数据的选择和过滤、评估和专家参与、模型安全改进以及监测和执行。

GPT-4有着与以前的模型类似的风险,如产生有害的建议、错误的代码或不准确的信息。

同时,GPT-4的额外能力导致了新的风险面。为了了解这些风险的程度,团队聘请了50多位来自人工智能对齐风险、网络安全、生物风险、信任和安全以及国际安全等领域的专家,对该模型在高风险领域的行为进行对抗性测试。这些领域需要专业知识来评估,来自这些专家的反馈和数据为缓解措施和模型的改进提供了依据。

或许更值得关注的问题是,人类的很多领域继续会被人工智能颠覆。在机器面前,人类似乎又渺小了不少。

《人类简史》的作者赫拉利总是在强调一项事实:人类并不是多么了不起的物种;人类之有今天,缘于各种生物和进化上的巧合,纯属狗屎运。

人类虽已拥有改变世界的技术能力,心智却严重落伍,他们在生理上与两万年前的祖先没有本质区别。甚至在全书结尾,赫拉利给人类下的判词是:“拥有神的能力,但是不负责任、贪得无厌,而且连想要什么都不知道。天下危险,恐怕莫此为甚。”

在不断迭代的新技术面前,无论人类有多少惊叹和担忧,首先都必须先选择:去接受,去拥抱,然后才是创造和改变。

「参考资料」

01 OpenAI 官网

02 GPT-4震撼发布:多模态大模型,直接升级ChatGPT、必应,开放API 来源:机器之心

03 逐浪AIGC①丨OpenAI正式发布GPT-4 向超级AI进发? 来源:21世纪经济报道

04 刚刚,ChatGPT-4发布,全方位碾压老版本 来源:知危

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
关于作者
无根草(普通会员)
文章
332
关注
0
粉丝
2
点击领取今天的签到奖励!
签到排行

成员 网址收录40329 企业收录2981 印章生成184343 电子证书781 电子名片48 自媒体20029

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索