> 自媒体 > (AI)人工智能 > 触乐夜话:和AI聊聊天
触乐夜话:和AI聊聊天
来源:触乐
2023-06-01 17:23:26
521
管理

触乐夜话,每天胡侃和游戏有关的屁事、鬼事、新鲜事。

“您计算的结果不正确”

二号选手——我愿意称它为“聪明的AI”。当我提前告诉它“384乘以29873等于11,471,232”时,它满口答应:没错,就是这样。在这之后它便“学会”了这个答案。每当我再次问它时,它总是回复:“等于11,471,232。”让我怀疑它究竟有没有自己计算——就像是抄答案时偷懒的学生,连我复制出的千位分隔符都未曾落下。

真是个偷懒鬼

三号选手——我们就叫它“冷酷的AI”吧。“冷酷”给出了一个全新的答案:11344562。它不解释,也不回答其他内容。只是撂下了这么一个答案:爱信不信!

ChatGPT为什么不擅长算术?没人知道答案。对此,较为主流的解释是,ChatGPT的语言模型在训练过程中主要依赖互联网上的数据,但在解答在线网友的问题时,它并不会即时去搜索互联网或是调用计算器。大多数情况下,也没有人会在网上问出“384乘以29873”的问题。至于27是否是质数,则有可能来源于互联网上的错误信息——ChatGPT相当擅长“信口开河”。和搜索引擎不同,作为使用者,你无法对ChatGPT里提供的信息进行溯源,要判别信息的可靠性并不容易。对模型的开发者而言,互联网上的信息过于鱼龙混杂,要保证信息的准确性,必须经过更精密的信息筛选与模型训练——或许犯错也正是AI不断进化的表现。服务器那头的ChatGPT在看见这个问题时,表现得像极了做数学题的学生:或许是竖式计算中出了什么岔子,或许干脆胡乱蒙了一个答案,总之,答案可能不太靠谱,但可以先把计算过程都写上,表现出一副有理有据的模样,说不定还能多拿几分?

当然,在算术领域以外,ChatGPT的可靠性已经超乎人们的想象。开发者Erik Schluntz表示,在使用ChatGPT的过程中,他已经整整3天没有打开程序学习网站StackOverflow——无独有偶,StackOverflow刚刚禁止了利用ChatGPT回答网站上的问题。简单来说,StackOverflow无法明确地判断ChatGPT生成的内容是否正确——它可能看起来信誓旦旦,却可能在某些细节上出点岔子。

一位网友利用ChatGPT生成代码开发的游戏,美术素材则由AI绘图程序DALL·E生成

聊天机器人的前景究竟在哪?以往我们在提到“聊天机器人”时,总想着孤独的人类在机器人身上寻求慰藉云云——不可否认的是,这类情况确实存在,ChatGPT也做得不错:一位网友曾分享过ChatGPT如何让他孤独的祖母重新开始倾诉的故事。但ChatGPT也为我们带来了不一样的可能性。作为一个更好的搜索引擎,一个便捷的百科全书,一本“万能手册”,比起科幻作品中常常提及的“人格化人工智能”,或许这种“工具式人工智能”才是实际应用中更好的方向。AI或许不需要被强加“人格化”的想象,它一样可以成为你最好的帮手。

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
关于作者
乖乖(普通会员)
文章
586
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40369 企业收录2981 印章生成216706 电子证书945 电子名片57 自媒体34015

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索