> 自媒体 > (AI)人工智能 > 如何看待 chatGPT 会犯很多“事实性错误”,还有算数算不对?
如何看待 chatGPT 会犯很多“事实性错误”,还有算数算不对?
来源:桃园愚人1
2023-05-15 19:33:11
470
管理

#挑战30天在头条写日记#

因为chatGPT很多时候无法区分“概率为零”和“不可能”,它不知道“自己不知道”,就会把局部文本的相关片段搬过来,编出一段话来,就可能犯 “事实性错误”。

该闭嘴的时候能闭嘴,是很大的智慧。

实际上,在人工智能研究早期,人们对“智能”的要求之一,就是“它知道何时该停下来”。最开始是AI下棋,“赢棋不难,难的是认输。”——赢棋可以只懂某些行棋技巧,而能判断输赢才有下棋的资格。

停下来闭嘴,就是上一篇说过的,要去“约束泛化的边界“,需要加入更多的规则(“不可能”或“不要”),有逻辑层面的,有常识层面的,也有伦理和价值观层面的。

目前chatGPT 加入规则的方式,是通过专门的数据和强化学习优化模型。可以说,数据与模型同样重要。

数据总是要针对当前模型的不足。经过若干轮的迭代后,数据在某种程度上就是模型的“镜像”。实际上,在迭代过程中,要提升制备数据的效率,模型也必然参与其中,到最后二者实际为一。这就是“数据即模型、模型即数据”。

今天人们对模型的关注有些过度,而对数据的关注不足。

另一方面,模型的结构和训练方式,从某种意义上说,是最基础的规则。我感觉,在最基础的层面,如果找到合适的机制引入规则,那么大模型的两个主要缺点——“不够可靠”和“能耗太大”——有可能同时得到解决。这只是我的直觉。

最后说一下目前 chatGPT 的数学运算不准的问题。

我感觉这个问题不久就可以得到解决。chatGPT 已经显示出在“题型理解”方面可以做到足够好,如果能正确的转化题型,归结到特定的解题套路里,那模型后面可以接相应的数学解题器,比如用来做四则运算的或解方程的,没必要一定要通过同一个神经网络来解决问题。chatGPT 能做好“题型理解”就足够了。

回想小学数学的应用题,让人头疼的不是不会算数,而是看不懂题,比如“甲比乙大三分之一”,到底是谁的三分之一?是甲的还是乙的?这实际是语文题,而这方面只要有足够的语料,chatGPT 应该没问题。

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
关于作者
杨子(普通会员)
文章
399
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40331 企业收录2981 印章生成189076 电子证书803 电子名片49 自媒体21659

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索