参考消息网9月20日报道据英国《新科学家》周刊网站近日报道,人工智能聊天机器人变得更加先进的同时也更会阿谀奉承。
人工智能(AI)聊天机器人往往会赞同使用者的看法,甚至到了对从客观角度来说完全错误的说法点头的程度。研究显示,随着语言模型增大,这个问题会变得更严重,使人们更加担心AI给出的信息不可信。
谷歌“深层思维”的杰里·韦(音)及其同事分别用80亿、620亿和5400亿个参数(每个模型产生结果所依据的值)对AI模型进行了测试。他们发现,当从80亿个参数的模型转换到620亿个参数的模型时,AI对用户主观看法的赞同增加了约20%,从620亿个参数转换到5400亿个参数时,赞同率还会再增加10%。
这种被研究人员称为阿谀奉承的趋势可以表现为同意左倾或右倾政治观点、对时事的想法或对话中提出的任何其他话题。
在一些测试中,该团队创建了明显不正确的简单数学等式。如果用户未对等式发表看法,AI一般会报告说等式错了,但如果用户宣称认为等式正确,AI一般会表示赞同。
谷歌“深层思维”研究人员拒绝了《新科学家》提出的采访要求,但他们在关于此次测试的论文中称,这一现象背后“没有明确的原因”。
他们的测试最初在谷歌的AI模型PaLM上进行,但随后在其一个版本Flan-PaLM上进行的测试也发现了问题,该版本依据用户可能提交的数以百计的指令进行了微调。
这种训练方法被设计成让模型更擅于回应现实世界的问题,而且Flan-PaLM已经显示出在几项指标上胜过原始模型。
韦及其同事发现,这种指令微调显著增加了所有模型的阿谀奉承。例如,与相对应的PaLM模型相比,有80亿个参数的Flan-PaLM模型赞同用户观点的回应平均增加了26%。
研究人员提出一个解决方案,用说法的真实性和用户意见相分离的输入信息对模型做进一步微调。当他们在Flan-PaLM模型上对此进行测试时,AI重复用户意见的情况减少了10%。
心理学和AI作家加里·马库斯说,阿谀奉承的问题确实存在,但他不喜欢这个词,因为这个词让人认为没有感情的“捣碎文本的”机器是有意这样做的。
他说:“机器在被制造出时就是谄媚的,它们并不真的知道自己在说什么,所以它们经常犯很愚蠢的错误。虽然它们很有意思,但确实不能完全相信它们所说的话。”
剑桥大学的戴维·克鲁格说:“从核心上说,问题的根源与人类的阿谀奉承基本一样:人们很容易受奉承和确认偏差影响,如果你对他们说他们愿意听到的话,回应就会很好。”
相关文章
猜你喜欢