> 自媒体 > (AI)人工智能 > OpenAI 成立团队准备应对人工智能的\u0026#34;灾难性风险\u0026#34;,如生物和核威胁
OpenAI 成立团队准备应对人工智能的\u0026#34;灾难性风险\u0026#34;,如生物和核威胁
来源:福布斯
2023-10-31 23:04:19
369
管理

文|Britney Nguyen

事件概要

OpenAI周四表示,它正在组建一个名为“做好准备” (Preparedness)的团队,以监督和评估它所谓的“前沿人工智能模型”的发展——它将其归类为具有潜在危险性的高性能模型,以防范网络安全和核威胁等类别的“灾难性风险”。

OpenAI 团队将监督和评估高功能人工智能模型的开发。图片来源:NURPHOTO VIA GETTY IMAGES

关键事实

该团队是OpenAI的一部分,将负责监控该公司的人工智能模型,以确保它们符合该公司承诺的安全准则。

该公司在一篇博客文章中列举了一些风险的例子,例如人工智能模型可能会通过语言说服人类用户,并自主完成任务。

该公司还希望防范一些人工智能专家所说的“灭绝”级威胁,如大流行病和核战争。

“做好准备”团队将由亚历山大·马德里(Aleksander Madry)领导,他是麻省理工学院可部署机器学习中心(Center for Deployable Machine Learning)的主任,但现在正休假在OpenAI工作。

该团队的另一项任务是创建和维护所谓的 "风险知情开发政策",该政策将概述公司应如何处理人工智能模型在发展和接近 "通用人工智能"(或接近人类的智识水平)时带来的风险。

OpenAI还举办了一项挑战赛,让公司外部的人士就人工智能可能被如何滥用并在现实世界造成危害的方式提出想法。

关键背景

今年5月,包括首席执行官山姆·阿尔特曼(Sam Altman)、首席科学家伊利亚·苏斯克维尔(Ilya Sutskever)和首席技术官米拉·穆拉蒂(Mira Murati)在内的OpenAI领导人与其他人工智能专家一起签署了一封公开信,呼吁优先解决先进人工智能模型的风险问题。今年3月,包括埃隆·马斯克(Elon Musk)在内的众多人工智能专家和科技高管也发表了一封联名信,对人工智能的快速发展提出了质疑,并呼吁暂停这项技术的开发6个月。阿尔特曼此前在3月份接受美国广播公司新闻采访时表示,他“特别担心”先进的人工智能模型“可能被用于大规模的虚假信息制造”,但他重申了自己的信念,即开发这项技术对人类很重要。自去年11月发布以来,OpenAI的聊天机器人ChatGPT因其通过考试和撰写论文的能力而席卷全球,但它和其他类似的聊天机器人一样,也曾传播错误的信息和进行奇怪的对话。

译自https://www.forbes.com/sites/britneynguyen/2023/10/26/openai-launching-team-preparing-for-ais-catastrophic-risks-like-biological-and-nuclear-threats/?sh=292deb197638

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
关于作者
我是歌王(普通会员)
文章
635
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40369 企业收录2981 印章生成216706 电子证书945 电子名片57 自媒体34015

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索