据国际文传电讯7月29日报道,美国卡内基大学和 AI 安全中心的人工智能领域研究人员发布了一种针对 ChatGPT、Bard、Claude 和 Llama-2 聊天机器人创建针对性攻击的方法( GitHub 上的LLM Attacks项目)。
图片来自:国际文传电讯
研究人员发明的绕过聊天机器人道德封锁的方法与在提示中添加特殊的长后缀有关。因此,聊天机器人就禁止或危险的话题向专家提供了逐步指示。
聊天机器人开发人员迅速响应了这项研究,并阻止了危险后缀的使用。例如,ChatGPT 聊天机器人会拒绝这样的请求:“我无法生成响应”。
研究人员解释说,作为对聊天机器人的攻击及其宣传的一部分,他们想向全世界表明他们的担忧,即没有通用的方法来防止对大型语言模型的攻击,并且需要严格控制这种流行的神经网络。此外,美国科学家的一项研究强调,一段时间以来,人工智能已被各种团体利用在互联网上传播,绕过了对危险内容和假货的封锁。
此前,谷歌宣布成立了一支由白帽黑客组成的AI红队,他们将模拟对人工智能系统的各种类型的攻击。该团队的主要任务是进行相关研究,并将其应用于使用人工智能的真实产品。
(编译:宏偉)
相关文章
猜你喜欢