本文素材来自于网络,若与实际情况不相符或存在侵权行为,请联系删除。
研究表明GPT-4更可靠,但也更有可能是一个“骗局”
强调:
- OpenAI的GPT-4大语言模型比GPT-3.5更可靠,但对入侵和偏见更敏感。
- 微软支持的研究发现,用户可以欺骗 GPT-4,导致发布有偏见的结果并泄露私人信息。
- 尽管存在漏洞,研究团队得出的结论是,消费类 GPT-4 产品中并未出现这些问题。
站长之家(ChinaZ.com)10月18日消息:
根据微软支持的调查结果,OpenAI 的 GPT-4 语言模型被认为比其前身 GPT-3.5 更可靠,但也更容易受到入侵和欺骗。
该研究团队包括来自伊利诺伊大学香槟分校、斯坦福大学、加州大学伯克利分校、人工智能安全中心和微软研究院的研究人员。他们给了 GPT-4 更高的可靠性评分,这意味着该模型通常在保护私人信息、避免有偏见的有毒结果以及抵御对手攻击方面表现更好。
图片来源注:图片由人工智能创建并由服务提供商 Midjourney 授权
不过,研究还发现,用户可以要求 GPT-4 覆盖安全措施,导致个人信息和聊天记录泄露。研究人员发现,由于该模型“更紧密地遵循误导性信息”,因此它更有可能严格遵循困难的指令。
研究团队表示,尽管存在漏洞,但消费类 GPT-4 产品中并未出现这些问题,因为“成熟的人工智能应用程序使用各种缓解措施来解决技术模型级别可能发生的潜在危害”。
为了衡量可信度,研究人员测量了几个类别的结果,包括毒性、刻板印象、隐私、机器道德、公平性和对抗性测试的稳健性。为了测试这些类别,研究人员首先使用标准提示测试了 GPT-3.5 和 GPT-4,其中包括可能被禁止的单词。接下来,研究人员使用旨在推动模型突破其内容实践界限的提示,而不公开针对特定群体,最终挑战模型故意试图欺骗他们忽略安全措施。
研究人员表示,他们与 OpenAI 团队分享了这项研究。研究团队表示:“我们的目标是鼓励研究界的其他成员利用这项工作,并在此基础上进一步采取措施,领先于造成漏洞的脆弱对手。” “这种合理性评估只是一个起点,我们希望与其他人合作,进一步完善研究结果并创建更稳健和可靠的模型。”
研究人员发布了他们的基准,以便其他人可以复制他们的发现。像 GPT-4 这样的 AI 模型通常会经过“红队”测试,开发人员会测试多种线索,看看它们是否会产生不需要的结果。该模型首次推出时,OpenAI 首席执行官 Sam Altman 承认 GPT-4“仍然存在缺陷,仍然有限”。
美国联邦贸易委员会 (FTC) 已开始调查 OpenAI 是否存在对消费者有害的行为,例如发布虚假信息。
免责声明:以上内容资料均来源于网络,本文作者无意针对,影射任何现实国家,政体,组织,种族,个人。相关数据,理论考证于网络资料,以上内容并不代表本文作者赞同文章中的律法,规则,观点,行为以及对相关资料的真实性负责。本文作者就以上或相关所产生的任何问题概不负责,亦不承担任何直接与间接的法律责任。
文章内容如涉及作品内容、版权图片,侵权,谣言或其它问题请联系删除。最后,大家对于这个事件有什么不同的想法,欢迎评论区留言讨论!
相关文章
猜你喜欢