ChatGPT火出圈后,谷歌坐不住了,本周加紧推出名为“Bard”的人工智能(AI)聊天机器人。然而,Bard却出师不利,被发现在广告中答题错误。遭到“群嘲”后,谷歌8日股价也随即跳水,市值蒸发超1000亿美元。Bard的这次翻车代价昂贵,但其实,AI聊天机器人的翻车并不少见,常被发现在一本正经地胡说八道。分析人士称,这恰恰暴露了聊天机器人的软肋,它们尚不能区分事实和虚构,“在学会思考之前就学会了写作”。
Bard首秀翻车
在谷歌发布的一则视频中,Bard被问道:“我如何告诉我9岁的孩子韦布空间望远镜有哪些新发现?”
对此问题,Bard的回答不仅内容丰富,还更通俗易懂。有人发现,和ChatGPT的回答相比,Bard的答复也更切题,能够激发一个9岁孩子对宇宙的兴趣。
但可惜的是,Bard的回答中有一项事实错误。Bard称,韦布空间望远镜拍摄到了太阳系外行星的第一张照片。但事实上,第一张系外行星照片是由位于智利的欧洲南方天文台甚大望远镜在2004年拍摄的。
尴尬的是,就在Bard被外界发现答题错误前,谷歌还曾表示,Bard仍处于测试阶段、尚未对外发布,是因为他们更谨慎地对待AI工具,确保Bard的回应符合谷歌“对现实世界信息的质量、安全和可靠度的高标准”。
除了在回答问题上翻车,谷歌8日举行的一场AI发布会也被外界认为“平平无奇”。
据美国有线电视新闻网(CNN)报道,在巴黎办公室举办的一场活动上,谷歌详细介绍了AI技术将如何从根本上改变人们搜索信息的方式。谷歌还透露Bard相关技术将被应用于搜索引擎中,但并未透露Bard的对外发布时间。
另一边,谷歌的竞争对手微软则在7日宣布,将推出搜索引擎必应(Bing)升级版,并搭载ChatGPT中使用的AI技术。
对此,投资者已开始担忧,使用了AI技术的微软将成为可怕的竞争对手,谷歌在搜索市场上的主导地位或将被削弱。
截至8日美股收盘,谷歌母公司字母表股价大跌7.68%,市值蒸发超1000亿美元。Bard的失误也被外界评为“AI犯下的最昂贵错误”。
“一本正经地胡说八道”
Bard首秀时的答题错误虽然令人尴尬,但其实ChatGPT的类似错误也并不少见。随着用户激增,人们发现这些聊天机器人的回答乍一看令人信服,但细节却经常出错。
比如,美联社8日在搭载了AI技术的必应上搜索“24小时内体育界发生的最重要事件”,得到了一长串有关美国职业橄榄球大赛“超级碗”的细节丰富的描述,包括参赛队伍、比赛比分甚至献唱的歌手是谁。但唯一的问题是:今年的“超级碗”尚未开赛。
诸如此类“一本正经地胡说八道”还有很多。比如,ChatGPT就常被发现会“发明”虚构的历史名称或不存在的书籍,在解答数学问题时也频频翻车。
有分析认为,这些错误的原因是因为ChatGPT、Bard等语言模型经常会产生“幻觉”,因为这些模型只是接受了大量文本语料库的训练,并不是查询已经过验证的事实数据库来回答问题。
英国AI初创企业Speechmatics分管机器学习的副总裁威尔·威廉姆斯(Will Williams)认为,这些模型的开放性将是一把“双刃剑”,“一方面,这带来了高度的灵活性和流畅性,几乎能就任何话题进行引人入胜的对话。但另一方面,你永远不会知道模型接触的是否是事实,会不会产生过度自信的‘幻觉’”。
还有专家担心聊天机器人的巨大风险。
经济和人工智能领域专家加里·N·史密斯(Gary N. Smith)认为,大型语言模型的根本问题在于,它们并不具备理解能力,也无法区分事实与虚构,“在学会思考之前就学会了写作”。
目前,大部分专家仍认为,ChatGPT、Bard等AI尚未达到一般人类智慧水平,即还不是“强人工智能”AGI。因此,媒体、风险投资家和科技企业的大肆宣传可能会起到反效果。
在史密斯看来,目前,这些聊天机器人的最大危险并不是它们比人类更聪明,而在于人类认为它们比人类更聪明,“这些模型应该只应用于错误成本较低的领域,比如推荐电影等。但它的神奇力量会让很多人相信,它们能够用于一些错误成本很高的情境中,比如贷款批准、监禁判决、医疗诊断或军事战略”。
(编辑邮箱:ylq@jfdaily.com)
栏目主编:杨立群 文字编辑:杨立群 题图来源:东方IC 图片编辑:雍凯
来源:作者:裘雯涵
相关文章
猜你喜欢