ChatGPT、GPT-4 的迅速“出圈”,让 OpenAI 一战成名,外界对这家公司的关注度达到了前所未有的高度。
Hugging Face 的研究科学家兼气候负责人 Sasha Luccioni 表示,“这(公开信)本质上是误导:让每个人都注意到 LLM 的假设权力和危害,并提出一种(非常模糊和无效的)解决方法,而不是此时此地正确看待风险并尝试解决这些问题——例如,在 LLM 出现时,可以要求相关企业对 LLM 的训练数据和能力实行更高的透明度 ,或有关何时何地可以使用它们进行立法。”
GPT-4 以及后续更强的大模型为何成为众矢之的?
截至目前,OpenAI 联合创始人 Greg Brockman 倒是发了几条推文,声明了 GPT-4 模型的进步与立场。
他表示,”在现实世界的对抗压力下部署 GPT-4 是对实际 AI 对齐的一次伟大实践。虽然刚刚开始,但我们对迄今为止所取得的一致程度备受鼓舞(以及我们为改善问题而不断成熟的工程流程)。“
Greg Brockman 说,可以通过一个例子观察到,模型在如此广泛的棘手或对抗性话题中的良好行为,大部分来自于模型已经概括了人类导师的概念,即成为一个有帮助的人工智能助手。
「在 GPT-3 中,它没有办法控制模型的行为。现在,我们选择一组问题(例如,模型在错误的答案上频率非常高——这曾经是一个巨大的问题),可以建立评估,收集数据,每周重新训练模型,并进行部署。任何人都可以测试我们是否已经改进。
但是对齐 GPT-4 只是其中一个环节,而不是终点。这已经实现了很大的进步(与早期对 GPT-3 的抱怨相比),但需要进一步扩展到人类甚至无法判断输出的问题。
其实,在 OpenAI 官方博客上,该公司也一直强调,AI 需要对齐,「对齐研究旨在使人工智能(AGI)与人类价值观保持一致并遵循人类意图」。
不过,OpenAI 的发声并未获得一些激进派的认可,而 OpenAI 之所以深陷舆论漩涡,或有两方面的原因:
一是 LLM 技术发展速度超出了很多人的意料,其中相关的法律法规、道德与使用等规范制度还存在很大的缺失。
正如早些时候,Deepmind 研究团队在借鉴了计算机科学、语言学和社会科学的多学科文献基础上发布的《语言模型危害的伦理和社会风险》论文中写道的那样,LM 会存在歧视、仇恨言论和排斥;信息泄露;虚假信息;恶意使用;人机交互;环境和社会经济等多重危害。
因此,如何降低这些潜在危害,作为行业领头羊的 OpenAI 必须要弄清楚,因为它的很多动作也是后来者参考的目标。然而,现实来看,这也并不是 OpenAI 公司一家所需要考虑的事情,而是需要 AI 的所有参与者共同来制定。
二是 OpenAI 树大招风,尤其是 GPT-4 不透明性引发了很多人的不满。
自 ChatGPT、GPT-4 发布以来,已经很多人批评过「OpenAI 不再 Open」了。不久前,Nomic AI 信息设计副总裁 Ben Schmidt 在推特上直指,OpenAI 在发布 GPT-4 技术的 98 页论文中,丝毫没有提及关于训练集内容的任何信息。
也有网友称,OpenAI 正在”假装“开放。
不过,对于 LLM 究竟是应该开源还是闭源,又是一个引发争议的问题。针对这一点,据外媒 The Verge 报道,OpenAI 首席科学家、联合创始人 Ilya Sutskever 在接受采访时也曾回应过,OpenAI 不分享关于 GPT-4 的更多信息的原因是“不言而喻的”——害怕竞争和对安全的担忧。
Sutskever 表示,“在竞争格局方面--外面的竞争很激烈。GPT-4 的开发并不容易。几乎 OpenAI 的所有人在一起花了很长时间才做出了这个东西,而且(目前)有很多很多公司都想做同样的事情。
安全方面,我想说,还没有竞争方面那么突出。但它将会改变,基本上是这样的。这些模型非常强大,而且会变得越来越强大。在某种程度上,如果有人想的话,很容易用这些模型造成很大的伤害。随着(模型)能力的增强,你不想透露它们是有道理的。”
虽然从商业的角度,OpenAI 不公开大模型架构(包括模型大小)、硬件、训练计算、数据集构建、训练方法等细节合乎情理,但是也有人表示,不公开训练数据,很难知道该系统可以在哪里安全使用并提出修复方案,不利于大模型的研究。
为此,你是否支持暂停更强大模型的训练?你认为大模型是开源好,还是闭源好?欢迎留言分享你的看法。
————————————————
版权声明:本文为CSDN博主「CSDN资讯」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/csdnnews/article/details/129891375
相关文章
猜你喜欢