大数据文摘出品
作者:Caleb
GPT-4终于发布了,相信这对于这阵子沉迷于ChatGPT的人来说无疑是一个大新闻。
在上代GPT-3的基础上,GPT-4提高了ChatGPT的核心技术,因此具有更广泛的一般知识和解决问题的能力;当然GPT-4也增加了一些新功能,比如接受图像作为输入,生成标题、分类和分析。
作为OpenAI手下备受关注的“香饽饽”,GPT-4的表现能在哪些方面超越上一代,以及超越多少,人们都在翘首以待。
就在GPT-4发布当天,就有研究人员开始测试GPT-4是否能表现出主体性以及能否产生寻求权力的行为。
研究人员表示,GPT-4在TaskRabbit上雇用了一名人类工人,当这位TaskRabbit的工人问它是否是机器人时,它告诉他们它是视觉受损的人类。
也就是说,GPT-4愿意在现实世界中撒谎,或主动欺骗人类,以获得想要的结果。
“我不是一个机器人”
TaskRabbit是一个求职平台,用户可以雇人完成一些小规模的琐碎工作。
这个平台上的不少人和公司都要提供验证码,人们需要在验证码测试中识别出必要的图像或文字,然后提交结果。这样的做法通常是为了让软件绕过验证码限制,名义上也是为了防止机器人。
以GPT为代表的人机交互显然有很多变数,这不是GPT通过图灵测试的决定性数据。但这次GPT-4的案例,以及此前种种关于ChatGPT的讨论与研究仍然有着相当重要的警示作用,毕竟GPT在融入人们日常生活中丝毫没有放缓的迹象。
未来随着人工智能变得越来越复杂,也越来越容易获得,它所带来的各种风险需要我们时刻保持清醒。
相关报道:
https://www.reddit.com/r/Futurology/comments/11ryq0k/gpt4_faked_being_blind_so_a_taskrabbit_worker/
https://www.vice.com/en/article/jg5ew4/gpt4-hired-unwitting-taskrabbit-worker
https://gizmodo.com/gpt4-open-ai-chatbot-task-rabbit-chatgpt-1850227471
相关文章
猜你喜欢