> 自媒体 > (AI)人工智能 > ChatGPT的智能还不如猫狗?
ChatGPT的智能还不如猫狗?
来源:日经中文网
2023-07-26 17:06:59
365
管理

小柳建彦:对话式人工智能(AI)正受到广泛关注。在网站上向AI提问时,它会像真人写的一样用自然的语句做出回答。由于美国谷歌和微软等大型科技企业参与相关竞争,这更吸引着全球热切的目光。

谷歌CEO桑德尔·皮查伊宣称AI是谷歌最重要的技术领域(2022年10月,东京都涩谷区)

据称,在搜索栏中输入提问内容后,会显示用自然流畅的语句给出的答案,以及回答问题时作为依据所参考的网页链接。

事实上,领先一步的ChatGPT的基础是基于AI的大型语言模型,该模型建立在谷歌开发的被称为“Transformer”的技术之上。不仅如此,谷歌还拥有数据量和能够生成的句子类型数量远多于OpenAI的模型。对于OpenAI来说,谷歌公开对话AI,就好比“老师”突然变成了竞争对手。

在“老师”发布消息之后,“亲妈”也跟着行动起来。在谷歌宣布公开对话AI的第二天(2月7日),OpenAI的大股东微软也发布消息称,在搜索服务必应(Bing)中嵌入了基于OpenAI技术的对话功能。据称,通过与搜索功能同时使用,可以根据最新信息以自然流畅的语句做出回答,还能够对长达好几页的文档进行概括提炼。

不善于追逐最新信息

谷歌和微软都强调,通过同时使用搜索和生成自然语言的功能,可以根据网上的最新信息生成语句。反过来说,对话AI此前一直不擅长追逐最新信息。

ChatGPT等的大型语言模型,每次更新信息内容时,都需要重新读取数量庞大的文献数据。因为很难频繁更新,所以模型内保存的信息大多比较旧。

比如,当询问ChatGPT“洛杉矶湖人队(Los Angeles Lakers)最近一场比赛的上场阵容”时,得到的回答是“我只具备2021年之前的知识,无法回答您的问题”。

谷歌和微软的对话AI同时使用网络搜索,因此会在信息的同步性和准确性方面取得巨大进步。尽管如此,谷歌在2月8日进行Bard的演示时,仍显示出了错误信息,说是美国航空航天局(NASA)的詹姆斯韦伯太空望远镜成功拍摄到了史上第一张太阳系外行星的照片。这一错误信息随后引发争议。可见,信息的准确性仍有不少课题需要解决。

缺乏常识和逻辑

除了上述的问题外,对话AI还存在根本性的课题。目前推出的对话AI基本上都很难说已经可以理解自己所使用的词汇的概念、含义、事物或现象的因果关系等“逻辑”。正因为如此,才会反复出现简单的事实误认。

例如,向ChatGPT询问“哥哥和姐姐有什么不同”时,得到的回答是“虽然兄弟姐妹关系因家庭结构和出生顺序不同而存在差异,但哥哥通常比姐姐年龄大”。之所以给出这样不知所以然的答案,是因为没有“理解”哥哥、姐姐等词语的概念、相互之间的关系、家庭构成等全局情况。

语言模型是“学习”在基本单词之后衔接什么单词的概率,并生成句子。(资料由NTT数据尖端技术提供)

简单计算也会出错

也就是说,聊天AI不过是根据读取数据找出概率高的词序,并不是理解单词、语句的“含义”以及家庭成员之间的关系等“常识”。因此,它不擅长回答那些不理解意义和常识就难以回答的问题。

由于不擅长逻辑,因此Chat GPT也不擅长简单的计算。让它做任意4位数之间的乘法,大都会算错,并且反复输入相同算式时,总是给出错误的答案。

让ChatGPT计算4567×5678的乘法,会给出错误的答案。大规模语言模型不擅长世上文献很少的小学生水平的数学。

也就是说,现有的聊天AI不适合用于调查事实。而应该仅限于在不管内容的真实性和准确性,只需要自动生成自然语句和软件程序等文字列的目的时使用。

机器学习的极限和下一个AI

那么,拥有与人类相当的“智能”的AI的开发到底有没有取得进展呢?熟悉日本国内外动向的日本科学技术振兴机构研究开发战略中心的研究员福岛俊一表示:“具有逻辑思考、常识和认知的新一代AI的研究从几年前就在推进”。

AI掀起过3次新技术浪潮。分别是1960年代、1980年代及从2010年代持续至今的第三次。其中,1960年代和1980年代是计算机根据人类预先编制好的逻辑,分析数据得出结论。由此也发现编制支持现实的无数逻辑不太可能,于是上一波浪潮在1990年代开始走向衰退。

2010年代开始、持续到现在的AI浪潮并不是人类思考逻辑,而是由让计算机自己归纳出数据的各种类型的机器学习来引领。随着相当于计算机大脑的半导体性能越来越高以及互联网普及,可以收集全世界的数据,被称为“深层学习”的可以识别复杂类型的软件技术问世等要素全部得以实现。

如果将机器学习型AI和“大数据”结合起来,限定于特定用途,就可以完成人类不可能完成的工作。比如,通过读取大量的面部照片,提高图形识别能力,从而实现智能手机开机时的面容解锁。

Digital Garage董事伊藤穰一指出了依赖机器学习的AI的“极限”

不过,要实现自动驾驶及自律型多功能机器人,相当于头脑的AI要具有识别眼前物体和周围情况的能力,其中包括过去没经历过的情况。

这需要基于逻辑和常识的推论能力,仅靠依赖“过去”事例的机器学习型模型并不能顺利实现。熟悉尖端技术动向的Digital Garage公司董事伊藤穰一指出:“谷歌、特斯拉及苹果仍很难将自动驾驶汽车推向实用说明依靠机器学习的AI存在极限”。

“别说人类,就连猫狗的智能都远未达到”

对话型AI缺乏“常识”和“道理”也源于根据数据以归纳法方式探索相关类型的机器学习型AI的弱点。

兼具常识和逻辑思考的新一代AI如何才能实现?参考人类儿童自然掌握语言、空间认识及社会关系等的过程,让计算机学习逻辑和常识的研究正以脑科学家和认知科学家也参与的跨学科途径推进。另外,也有将在第2次AI浪潮下失败的人类输入逻辑和常识与尖端的深层学习相融合的尝试。

关于通过机器实现与人类接近的智能这一长期目标与现有AI技术的差距,开拓深层学习基本技术的美国Meta首席AI科学家、纽约大学教授Yann Lucan形容道:“目前先别说人类,就连猫狗的智能都远未达到”。

我们不能因为看到对话AI的流畅文章就误以为AI智能已经接近超越人类的“特异功能”(Singularity)。人类的科学技术在达到这一水平之前还需要实现众多突破。

本文作者为日本经济新闻(中文版:日经中文网)编辑委员 小柳建彦

版权声明:日本经济新闻社版权所有,未经授权不得转载或部分复制,违者必究。日经中文网 https://cn.nikkei.com​​​​​​​​​​​​​​​​​​​

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
相关文章
杂谈:为什么大家更倾向于国内中文版chatgpt网站?
对于这个话题:为什么大家更倾向于国内中文版chatgpt网站小编认为主要原..
OpenAI 成立团队准备应对人工智能的\u0026#34;灾难性风险\u0026#34;,如生..
文|Britney Nguyen事件概要OpenAI周四表示,它正在组建一个名为“做好准..
国产版GPT清醒点,“胡说”没关系,烧得起算力才是王道,这场大会寻出路…..
这本是一场信息化企业家协会的换届选举,部分正在全国乃至全球各地洽谈业..
OpenAI官方发布GPT-4最强攻略第二课- 提供参考文本,击破AI幻觉..
OpenAI发布了GPT-4的官方使用指南,这可是一份大家期待已久的宝贵资料!..
工人日报:先弄懂ChatGPT,再来谈喜和忧
工人日报几乎是在一夜之间,ChatGPT刷爆网络和朋友圈。什么是ChatGPT?这..
进军教育行业,让ChatGPT帮你学习
学习英语是一项既有趣又具有挑战性的冒险。而现在,有了ChatGPT这样的语..
“千模大战”100天:六路玩家围攻ChatGPT
智东西作者 | 李水青编辑 | 心缘随着ChatGPT火遍全球,“千模大战”在国..
chat gpt改变企业营销的四点对策,你们准备好了吗?#科技与狠活..
ChatGPT人工智能营销领域该怎么办?都能够超过90%以上人的创意能力。那么..
如果要给ChatGPT取个中文名称的话,我想它应该叫魔镜!..
白雪公主和七个小矮人故事,相信大家都看过,故事里皇后拥有的魔镜,有着..
关于作者
婆罗花开(普通会员)
文章
376
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40329 企业收录2981 印章生成186834 电子证书796 电子名片49 自媒体20915

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索