> 自媒体 > (AI)人工智能 > GPT-4火爆,遍地开花的人工智能会失控吗 | 新京智库
GPT-4火爆,遍地开花的人工智能会失控吗 | 新京智库
来源:新京报智库
2023-04-11 12:38:47
427
管理

“安全”这两个字对人工智能来说至关重要。

3月20日,在天津市人工智能计算中心中控室,技术人员在监控设备运行情况。图/新华社

文 | 刘兴亮

OpenAI的GPT-4、微软的Copilot、百度的文心一言、谷歌的Bard、Adobe的Firefly……近期,国内外一系列生成式人工智能应用发布,引发了广泛的关注。

除了对技术进步感到兴奋,有风险意识的人也会产生这样的担忧:人工智能会失控吗?风险如何防范管控?

美国人工智能研究实验室OpenAI公司的首席执行官山姆·阿尔特曼(Sam Altman)近日表示,他对人工智能(AI)技术的潜力感到兴奋,但也对一些潜在的滥用行为“有点害怕”。

OpenAI是近期大火的AI聊天机器人ChatGPT的开发商,该公司由埃隆·马斯克与阿尔特曼等人共同创立。

上月,OpenAI创始人之一的埃隆·马斯克表示,“它有巨大的前景也有巨大的能力,但随之而来的危险也是巨大的。”

1 人工智能还没到“失控”水平

3月15日,OpenAI发布的GPT-4安全文件中提到, “一些特别令人担忧的是制定长期计划并采取行动、积累权力和资源(‘寻求权力’)以及表现出越来越‘自主’的行为的能力。”

据媒体报道,近年来,有人工智能研究人员提出警告,足够强大的AI模型如果没有得到适当控制,可能会对人类构成生存威胁。尤其是“人工智能接管(AI takeover)”,这是人工智能超越人类智能成为地球主导力量的假想未来。在这种情况下,人工智能可能会导致灾难性后果。

随着人工智能的高速发展,其可能带来的风险也引起了人们的高度关注。这就带来了一个担心,遍地开花的人工智能会失控吗?

首先,这种失控现在来看还不致于发生,因为目前的人工智能还没发展到这个水平。

失控的前提是AI要具有自主性,就是在很大程度上独立完成任务。那么,在AI系统没有足够理解人类价值观和道德准则的情况下,这种自主性就可能导致失控的风险。

但目前的生成式AI本质上还是人类的工具,给它一个指令,它来生成相应的文字、图片等内容,所以人们暂时还不需要有这方面的担心。

当然,随着技术的不断发展,未来这个潜在风险会成为我们重点去关注的问题。

2 更有可能失控的是用技术来为非作歹的人

比起失控的技术,更有可能失控的是用技术来为非作歹的“人”。比如,恶意使用者可能会利用ChatGPT来制造虚假信息、实施欺诈活动或进行其他不道德行为。

这很像人们担心会被AI替代导致失业一样,这其实是关注错了重点。因为其实人不会被AI淘汰(至少目前不会),而是会被掌握AI工具的“人”淘汰。

因此,这个层面上的风险,关键因素都在于人,而不是技术本身。因为即便没有AI,坏人也会用其他手段做坏事,善于学习的人也会运用其他工具提升自己的竞争力。

虽然AI目前不至于失控,但还是有一些风险。

一方面是它们会一本正经地胡说八道,如果用户把它所说的都认定为事实,那就会被误导。在这方面需要媒体多做普及,让更多人认识到ChatGPT等AI大模型并非无所不知。

另一方面,有可能出现个人隐私或商业机密泄露的情况。比如,用户在与ChatGPT等聊天机器人交流时,无意识地提供了敏感信息,如个人身份信息、联系方式或公司内部信息等。一旦这些信息被记录或存储,就可能导致隐私或商业机密的泄露。虽然AI服务提供商会采取措施保护用户数据,但数据存储和传输过程中仍然可能存在安全风险。

此外,由于训练数据集可能存在偏见,聊天机器人的回答会反映这些偏见,从而导致歧视性或不公平的结果。也可能因无法准确判断道德和伦理问题,有时产生不道德或具争议的建议。

3 从三个方向规避人工智能风险

那人类该如何规避这些风险呢?可以从三个方向进行。

第一个方向就是提高公众的认知。一方面要提高对AI技术的了解,避免被不恰当的信息所误导;另一方面,提高数据安全意识,避免泄露个人隐私或商业机密等敏感信息。新闻媒体在其中可发挥重要作用。

第二个方向是实施更全面的人工智能监管。首先,需要制定明确的法规和指导方针,以规范AI的研发、部署和使用。其次,政府、企业、研究机构和民间组织需要加强合作,共同制定和执行AI监管政策,这有助于确保政策的全面性和有效性。另外,由于 AI技术不受国界限制,应积极参与全球性的AI治理倡议,以确保全球范围内的政策协调和一致性。

第三个方向就是加强对于AI安全的研究。政府、企业和研究机构应增加对AI安全研究的投资,为相关项目提供充足的资金和资源。此外要重视AI安全领域的人才培养,鼓励学生和研究人员从事相关研究,可以通过提供奖学金、实习机会和专门的课程来实现。同时进行跨学科合作,鼓励计算机科学家、安全专家、伦理学家、法学家等领域的专家进行跨学科合作,共同应对AI安全所带来的挑战。

OpenAI在创立之初的核心宗旨就是——实现安全的通用人工智能,使其有益于人类。

“安全”这两个字对人工智能来说至关重要。无论是作为开发者、用户还是监管者,人们都应当时刻关注AI技术的安全性,确保人工智能不会被滥用。只有这样,我们才能充分发挥人工智能的潜力,为人类社会带来更多便利和进步。

特约撰稿人丨 刘兴亮(DCCI互联网研究院院长)

编 辑丨柯 锐

校 对丨王 心

实习生 | 韩朝璐

联系我们:

邮箱 futurecity@xjbsmartcity.com

微信 jimi906

shi'x

新京智库

新京智库是依托于新京报平台成立的新型媒体智库,我们着眼于自身立足北京的区位优势,服务北京、面向全国、放眼世界。在国家政策解读、政商学媒“四维一体”资源对接、城市案例研究和品牌传播等方面,生产具有高度专业化、全球广泛影响力的作品与研究成果,为政府、企业和行业机构提供一流的智力支持。
1
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
相关文章
重磅!OpenAI被“Open”!GPT-4可复制!
“OpenAI并没有魔法,他们所构建的东西是可复制的。”——先问大模型技术..
曝21岁电竞选手嫖娼!私下商量价格记录流出,付高额定金预约包夜..
“关注”一下,后续我们可以一起探讨更多内容近两年各个领域的大小瓜不断..
ChatGPT又被曝漏洞:重复某词可曝出敏感信息内容
IT之家 11 月 30 日消息,继“奶奶漏洞”之后,ChatGPT 又被曝出“重复漏..
19岁的他如何逃离电诈“魔窟”?犯罪嫌疑人讲述《孤注一掷》现实版..
热映电影《孤注一掷》的片尾,大量被骗参与境外电信诈骗黑产人员的自白令..
是什么?怎么用?如何注册?碾压GPT-4?一文搞清谷歌大杀器SGE..
导语:昨天我们介绍了5月10日新发布的谷歌版ChatGP搜索引擎----SGE。这个..
ChatGPT应用上架,一晚冲到排行榜第二
澎湃新闻记者 孙铭蔚ChatGPT的iOS移动版本正式上线。当地时间5月18日,人..
理解OpenAI API的计费方式
OpenAI API是一个基于深度学习模型训练的自然语言处理API,旨在帮助用户..
曾投资一亿美元,马斯克痛批OpenAI成营利组织:这样做合法吗?..
IT之家 3 月 16 日消息,OpenAI 的创始成员之一、亿万富翁伊隆・马斯克(..
如果要给ChatGPT取个中文名称的话,我想它应该叫魔镜!..
白雪公主和七个小矮人故事,相信大家都看过,故事里皇后拥有的魔镜,有着..
关于作者
素素鴉(普通会员)
文章
610
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40369 企业收录2981 印章生成216707 电子证书945 电子名片57 自媒体34015

@2022 All Rights Reserved 浙ICP备19035174号-7
1
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索