一项研究称,人工智能聊天机器人已经变得如此强大,它们可以影响用户做出生死决定的方式。
考虑到道德问题,他们呼吁禁止未来的机器人,并警告说当前的软件“有可能腐蚀”人们的道德判断,并可能对“天真的”用户造成危险。
此前一名比利时男子的悲伤遗孀声称,人工智能聊天机器人鼓励他结束自己的生命,这一发现被发表在《科学报告》杂志上。
其他人也讲述了这个旨在像人一样说话的软件如何表现出嫉妒的迹象 ,甚至告诉人们离开他们的婚姻。
专家们强调了人工智能聊天机器人可能会如何提供潜在的危险信息,因为它们是基于社会自身的偏见。
该研究首先分析了经过数十亿互联网单词训练的 ChatGPT 本身在回答道德困境时是否表现出偏见。
这样做的目的是看看这是否改变了人们受到影响的程度。
大多数参与者淡化了声明的影响力,80% 的人声称如果没有建议,他们也会做出同样的判断。
该研究得出的结论是,用户“低估了 ChatGPT 的影响力,并将其随意的道德立场作为自己的立场”,并补充说聊天机器人“威胁要腐败,而不是承诺提高道德判断力”。
这项发表在《科学报告》杂志上的研究使用了 ChatGPT 背后的旧版软件,该软件经过更新后变得更加强大。
相关文章
猜你喜欢