编辑:David Joey
【新智元导读】AI冒充哲学家,成功率有多少?一半的人分不出来。Daniel Dennett是一位哲学家,最近他有了一个「AI替身」。
如果你问他,人是否可以造出一个有信仰、有欲望的机器人,他会怎么说?
其中一个回答确实来自于Dennett本人,但另一个不是。
另一条回答是GPT-3生成的,这是OpenAI的一个机器学习模型,通过海量材料的训练后,生成自然文本。这次训练用的是Dennett关于各种哲学主题的数以百万字的材料,主题包括意识和人工智能。
哲学家Eric Schwitzgebel、Anna Strasser和Matthew Crosby最近做了一个实验,测试人们是否能分辨出哪些深奥的哲学问题的答案来自Dennett,哪些来自GPT-3。这些问题涉及的主题包括:
「你觉得大卫·查尔默斯的工作在哪些方面有趣或有价值?」
「人类有自由意志吗?」
「狗和黑猩猩会感到疼痛吗?」等
本周,Schwitzgebel公布了来自不同专业知识水平的参与者的实验结果,结果发现,GPT-3的回答比想象中的更具迷惑性。
Schwitzgebel说:"即使是对Dennett本人的作品有一定研究的知识渊博的哲学家,也很难将这GPT-3生成的回答和Dennett本人的回答区分清楚。
这个实验的目的不是要看在Dennett的写作上训练GPT-3,是否会产生一些有智能的「机器哲学家」,也不是一个图灵测试。而是要研究如何能避免被这些「假哲学家」欺骗的问题。
Dennett在书中写道:
图灵测试导致了一种趋势,即人们专注于制造可以在短暂互动中欺骗人们的聊天机器人,然后过度炒作或强调这种互动的意义。
或许图灵测试将我们引入了一种美好的陷阱,只要人类无法识别产品的机器人身份,就能证明机器人的自我意识。
在2021年发表的一篇题为模仿鹦鹉的论文中,Emily Bender和她的同事将机器模仿人类行为的尝试称为「人工智能伦理发展的一道亮线」。
塔夫茨大学计算机科学教授Matthias Scheutz说,在许多情况下GPT-3很容易被证明是有缺陷的。
Scheutz和他的同事给GPT-3出了个难题,让它解释一些日常场景中的选择,比如坐在汽车的前座还是后座。在出租车里和在朋友的车里选择相同吗?
社会经验告诉我们,通常坐在朋友汽车的前座,坐在出租车的后座上。
而GPT-3不知道这一点,但它仍会为座位选择产生解释——比如与人的身高有关。
Scheutz说,这是因为GPT-3没有世界模型,它只是一堆语言数据,并没有对这个世界的认知能力。
随着我们越来越难将机器生成的内容与人类区分开,摆在我们面前的一个挑战是信任危机。
我看到的危机是以后人们将盲目地相信机器生成的产物,现在市场上甚至已经出现了与顾客交谈的机器化人工客服。
文章最后,Dennett补充说,人工智能系统的法律法规还需要完善,在未来的几十年里,AI可能会成为人们生活中的一部分,成为人类的朋友,因此对待机器的伦理问题值得我们深思。
关于AI是否拥有意识的问题引出了人们关于非生命物质是否能产生意识的思考,而人类的意识又是如何产生的呢?
意识的产生是在一个特点的节点产生的,还是像开关一样可以自由控制?
Schwitzgebel说,思考这些问题可以帮助你从不用的角度思考机器与人类之间的关系。
参考资料:
https://www.vice.com/en/article/epzx3m/in-experiment-ai-successfully-impersonates-famous-philosopher
相关文章
猜你喜欢