但不管怎么说,可以感到大家都紧张起来了。
在信中,生命未来研究所提了四个问题:
我们一定要让机器用宣传和谎言充斥我们的信息渠道吗?
我们一定要把所有工作都自动化吗?包括哪些人工完全可以做得令人满意的工作吗 ?
我们一定要发展最终可能超过我们、超越我们、并取代我们的非人类思维吗?
我们一定要冒险失去对我们文明的控制吗?
讲道理,这些问题在过去几十年里一直是科幻小说中流行的题材。
但是可能谁也想不到,随着去年年底 OpenAI 一声枪响。
这些难题真真切切的被搬到了我们面前,变成了我们可能需要立刻面对的元素。
>/ 眼见为真?耳听为实?前几天,有人在网上发布了一组图片,记录了 2001 年发生在美国西部小镇卡斯卡迪亚上的了一场 9.1 级的地震之后的景象。
略带模糊的镜头记录下了当时哭喊的民众
被摧毁的建筑和房屋
合着你是直接把之前的知乎文章翻译了一遍,然后又给我编了一篇英文文章来讹我啊。。。
它顺应了我们的猜测给了一个谣言,要不是我多心看了一眼,可能真的给他糊弄过去了。
真就是睁眼说瞎话大师。
而除了这个 title 以外, AI 还是桀骜不羁的漏洞寻找大师,往往能在我们训练它的过程中表演一手出乎意料。
在人工智能领域,有个非常经典的理论叫做 “ 对齐问题 ” 。
意思是 AI 在做的事情和我们想要的结果之间没有对齐,命令的传递出现了偏差。
就比如前两年那只宁愿一头撞死的赛博狼。
发现抓半天羊还会不断扣分,那还不如一头撞死自己分还比较高。
狼抓羊这么简单的程序都会出现没法对齐的问题,那更大模型的人工智能就更难说了。
实际上,缺乏 “ 对齐 ” 的 AI,还可能会形成社会中一些错误印象的 “ 放大器 ” 。
就拿性别歧视举个例子,早些年亚马逊引入了一个人工智能,来给求职者的简历打分。
结果过了几年回头一看,在程序制定者啥也没做的情况下,性别歧视就很顺滑的出现了,男性简历的通过率比女性高了不少。
甚至就算简历上面没有明确写出性别,程序还会通过一些细枝末节的地方来确定:比如是否毕业于女子大学,是否是 “ 女子 XX 社 ” 社团社长。
这自然不是亚马逊在招聘时希望看到的,也绝对不是它们在设计 AI 时给它下的命令。
但是 AI 在训练的结果中很自然的 “ 没有对齐 ” 。
而且不光早些年的人工智能,最新的 ChatGPT 也依旧会有这些问题。
比如宁可让百万人失去生命也不愿意说一句种族歧视的话语。
再比如不愿意写一首诗歌歌颂川普,但是可以赞扬拜登。。。
这些都是很明显的政治倾向,我愿意相信 OpenAI 在研发 ChatGPT 的时候并不希望它学会这些,不然他们也没有必要在 GPT-4 上花那么多时间用于自我审查。但我们一不留神, AI 可能就偷偷的跑偏。
去学习偏见、歧视这些我们不希望存在,但是又客观隐藏在社会关系里的性别歧视和政治倾向。差评君也和清华大学交叉信息研究院的于洋教授聊过这个问题,探究到底是 AI 的哪里出了问题。
于教授的回答是: “ 这既是训练数据集的问题,也是模型架构的问题,也是训练方式的问题,还涉及到使用的问题——比如诱导 AI 犯错的攻击式使用。 ”——对,就是全有问题。
现在的 AI 能做的还有限,就算没对齐,捅出了篓子,可能还在我们能控制的范围里。但如果在这样狂飙下去,那可就说不定了,就像那个知名的 “ 曲别针假说 ” 。说不定未来哪一天, AI 会认为人类都是阻挠它生产曲别针的阻碍,把大家都给噶了?
人类有和自然相处成百上千年下来的道德约束,我们知道什么能做,什么不能做。而目前,人工智能学不会这些。或许,这才是这次数千 AI 大佬发出联名信的原因。监管必须要有,但是监管、法规不是一日而成。
AI算法突破起来毫无阻碍,连我们这种外行人都知道,AI带来的技术爆发已经箭在弦上。去年啥情况,今年啥情况,称之为突飞猛进不为过。
随着AI算法的日益完善,下一步没准就要自我进化了,它能成长到什么地步我们很难说。
我们有可能只能跟着 AI 在屁股后面追,但是现在不知道还有没有我们一直在后面追的空间。也许下一步只能用 AI 来监管 AI。
今天的联名信或许是给人类敲响了一记警钟。但可惜的是,在差评君看来,这样一纸的 “ 联名信 ” 绝对停不下 AI 领域研发的脚步。
相关文章
猜你喜欢