> 自媒体 > (AI)人工智能 > GPT-4火爆,遍地开花的人工智能会失控吗 | 新京智库
GPT-4火爆,遍地开花的人工智能会失控吗 | 新京智库
来源:新京报评论
2023-05-15 20:56:45
426
管理

3月20日,在天津市人工智能计算中心中控室,技术人员在监控设备运行情况。图/新华社

文 | 刘兴亮

OpenAI的GPT-4、微软的Copilot、百度的文心一言、谷歌的Bard、Adobe的Firefly……近期,国内外一系列生成式人工智能应用发布,引发了广泛的关注。

除了对技术进步感到兴奋,有风险意识的人也会产生这样的担忧:人工智能会失控吗?风险如何防范管控?

美国人工智能研究实验室OpenAI公司的首席执行官山姆·阿尔特曼(Sam Altman)近日表示,他对人工智能(AI)技术的潜力感到兴奋,但也对一些潜在的滥用行为“有点害怕”。

OpenAI是近期大火的AI聊天机器人ChatGPT的开发商,该公司由埃隆·马斯克与阿尔特曼等人共同创立。

上月,OpenAI创始人之一的埃隆·马斯克表示,“它有巨大的前景也有巨大的能力,但随之而来的危险也是巨大的。”

1 人工智能还没到“失控”水平

3月15日,OpenAI发布的GPT-4安全文件中提到, “一些特别令人担忧的是制定长期计划并采取行动、积累权力和资源(‘寻求权力’)以及表现出越来越‘自主’的行为的能力。”

据媒体报道,近年来,有人工智能研究人员提出警告,足够强大的AI模型如果没有得到适当控制,可能会对人类构成生存威胁。尤其是“人工智能接管(AI takeover)”,这是人工智能超越人类智能成为地球主导力量的假想未来。在这种情况下,人工智能可能会导致灾难性后果。

随着人工智能的高速发展,其可能带来的风险也引起了人们的高度关注。这就带来了一个担心,遍地开花的人工智能会失控吗?

首先,这种失控现在来看还不致于发生,因为目前的人工智能还没发展到这个水平。

失控的前提是AI要具有自主性,就是在很大程度上独立完成任务。那么,在AI系统没有足够理解人类价值观和道德准则的情况下,这种自主性就可能导致失控的风险。

但目前的生成式AI本质上还是人类的工具,给它一个指令,它来生成相应的文字、图片等内容,所以人们暂时还不需要有这方面的担心。

当然,随着技术的不断发展,未来这个潜在风险会成为我们重点去关注的问题。

2 更有可能失控的是用技术来为非作歹的人

比起失控的技术,更有可能失控的是用技术来为非作歹的“人”。比如,恶意使用者可能会利用ChatGPT来制造虚假信息、实施欺诈活动或进行其他不道德行为。

这很像人们担心会被AI替代导致失业一样,这其实是关注错了重点。因为其实人不会被AI淘汰(至少目前不会),而是会被掌握AI工具的“人”淘汰。

因此,这个层面上的风险,关键因素都在于人,而不是技术本身。因为即便没有AI,坏人也会用其他手段做坏事,善于学习的人也会运用其他工具提升自己的竞争力。

虽然AI目前不至于失控,但还是有一些风险。

一方面是它们会一本正经地胡说八道,如果用户把它所说的都认定为事实,那就会被误导。在这方面需要媒体多做普及,让更多人认识到ChatGPT等AI大模型并非无所不知。

另一方面,有可能出现个人隐私或商业机密泄露的情况。比如,用户在与ChatGPT等聊天机器人交流时,无意识地提供了敏感信息,如个人身份信息、联系方式或公司内部信息等。一旦这些信息被记录或存储,就可能导致隐私或商业机密的泄露。虽然AI服务提供商会采取措施保护用户数据,但数据存储和传输过程中仍然可能存在安全风险。

此外,由于训练数据集可能存在偏见,聊天机器人的回答会反映这些偏见,从而导致歧视性或不公平的结果。也可能因无法准确判断道德和伦理问题,有时产生不道德或具争议的建议。

3 从三个方向规避人工智能风险

那人类该如何规避这些风险呢?可以从三个方向进行。

第一个方向就是提高公众的认知。一方面要提高对AI技术的了解,避免被不恰当的信息所误导;另一方面,提高数据安全意识,避免泄露个人隐私或商业机密等敏感信息。新闻媒体在其中可发挥重要作用。

第二个方向是实施更全面的人工智能监管。首先,需要制定明确的法规和指导方针,以规范AI的研发、部署和使用。其次,政府、企业、研究机构和民间组织需要加强合作,共同制定和执行AI监管政策,这有助于确保政策的全面性和有效性。另外,由于 AI技术不受国界限制,应积极参与全球性的AI治理倡议,以确保全球范围内的政策协调和一致性。

第三个方向就是加强对于AI安全的研究。政府、企业和研究机构应增加对AI安全研究的投资,为相关项目提供充足的资金和资源。此外要重视AI安全领域的人才培养,鼓励学生和研究人员从事相关研究,可以通过提供奖学金、实习机会和专门的课程来实现。同时进行跨学科合作,鼓励计算机科学家、安全专家、伦理学家、法学家等领域的专家进行跨学科合作,共同应对AI安全所带来的挑战。

OpenAI在创立之初的核心宗旨就是——实现安全的通用人工智能,使其有益于人类。

“安全”这两个字对人工智能来说至关重要。无论是作为开发者、用户还是监管者,人们都应当时刻关注AI技术的安全性,确保人工智能不会被滥用。只有这样,我们才能充分发挥人工智能的潜力,为人类社会带来更多便利和进步。

新京智库特约撰稿人丨 刘兴亮(DCCI互联网研究院院长)

编 辑丨柯 锐

校 对丨王 心

实习生 | 韩朝璐

联系我们:

邮箱 futurecity@xjbsmartcity.com

微信 jimi906

shi'x

新京智库

新京智库是依托于新京报平台成立的新型媒体智库,我们着眼于自身立足北京的区位优势,服务北京、面向全国、放眼世界。在国家政策解读、政商学媒“四维一体”资源对接、城市案例研究和品牌传播等方面,生产具有高度专业化、全球广泛影响力的作品与研究成果,为政府、企业和行业机构提供一流的智力支持。
0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
相关文章
凭什么高级工程师没我份,是领导你暗箱操作吗
想了解普通人逆袭的方法请关注我,点赞并在评论区联系我。老职工破口大骂..
微软连夜升级AI全家桶 !宣布支持Llama 2大模型,GPT-4版Office定价30美元/..
今年5月,微软宣布将Microsoft 365 Copilot付费抢先体验计划扩展到全球60..
接入互联网后的Gpt4,能力爆棚
今天提笔分享一个让Chat-Gpt4联网的诀窍。我们都知道GPT的数据库截止2021..
警惕新骗局 这种“吃瓜群”速退
什么是“吃瓜”群?为了增加自己账号的粉丝数量有人利用公众“吃瓜”的心..
Open AI这场内斗,关乎全人类命运!
文章作者:北风雪林去年底以来,全世界范围内最受关注的科技创新是ChatGP..
关于2023年ChatGPT的一切:OpenAI聊天机器人统计数据大揭秘..
自发布以来,ChatGPT作为一款类似人类的聊天机器人已经广为人知,它能根..
ChatGPT火爆全网 业内人士:3月份国内可能有类似产品上线..
如果你拥有一个AI秘书,你希望它能为你做哪些事?编写代码、翻译小说、丰..
8岁会编程、20岁从斯坦福辍学、30岁创建OpenAI……奥特曼,比马斯克疯狂的..
近日,“ChatGPT之父”山姆·奥特曼(Sam Altman)被自己创立的公司OpenA..
仅仅是在平淡的聊天中加一个“哇”?当代人聊天基本礼仪还有这些..
话题#在平淡的聊天中加一个“哇”#突然了上了热搜,这个一说出来就像没见..
关于作者
国务院环卫工..(普通会员)
文章
636
关注
0
粉丝
1
点击领取今天的签到奖励!
签到排行

成员 网址收录40369 企业收录2981 印章生成216707 电子证书945 电子名片57 自媒体34015

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索