> 自媒体 > (AI)人工智能 > GPT-3“编写虚假信息”的能力被媒体过度夸大了
GPT-3“编写虚假信息”的能力被媒体过度夸大了
来源:知否问答
2023-08-08 15:59:54
312
管理

GPT-3 是 OpenAI 构建的备受推崇的文本生成器,可以做很多事情。例如,微软宣布了一种新的基于人工智能的“自动完成”编码系统,该系统使用 GPT-3 为人们构建代码解决方案,而无需他们进行任何开发。

但该技术目前还无法做到的是“欺骗人类”,编写错误信息。然而,如果仅仅根据新闻标题来判断,可能会认为该技术已经做到了让人们“上当受骗”。

《连线》杂志最近发表了一篇题为“GPT-3 现在可以编写虚假信息,并欺骗人类读者”的文章,随后被其他媒体转载。

很明显这是一个潜在与现实的案例,希望阐明的是GPT-3绝对不能自行“欺骗人类”这一事实,至少今天不是。

这是因为 GPT-3 只是一个“胡言乱语”生成器,它设法通过纯粹的蛮力模仿人类写作。

当提问例如“谁是美国的第一任总统?” 它可能会回答“乔治华盛顿是美国第一任总统,他的任期为 1789 年 4 月 30 日至 1797 年 3 月 4 日。”的确令人满意!但它吐出胡言乱语的可能性也一样(也许甚至更大)。

而且,更可怕的是,“它可能会吐出一些种族主义或更令人不悦的东西”。毕竟它是在互联网上训练的,其中很大一部分语料非正常。

即使是GPT-3,它也不知道它在说什么。也由此断定AI是无法自行生成高质量的错误信息。在它确实有效的地方,例如简短的推文,它也必须由人类精心策划。

GPT-3 可能有一天会影响人们,但现在肯定不会“欺骗”大多数人。但同时我们绝对应该担心人工智能产生的错误信息。但是,根据这项特定研究,几乎没有理由相信 GPT-3 或类似系统目前存在可能直接导致人类心灵与事实背道而驰的错误信息威胁。

归根结底,研究本身非常重要。正如《连线》杂志所指出的那样,这些系统可能会强大到足以取代某些领域的人类作家的时代,但现在这都是学术性的,错误言论的背后一定少不了“人为操作”,机器还没有聪明到这个地步。

人工智能在变得像“最谦虚的人类恶棍”一样糟糕之前还有很长的路要走。

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
关于作者
锦阳(普通会员)
文章
618
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40369 企业收录2981 印章生成216707 电子证书945 电子名片57 自媒体34015

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索