签署这封公开信的,包括三大AI巨头的CEO,即ChatGPT老板、OpenAI的山姆·阿尔特曼,DeepMind的戴密斯·哈萨比斯和Anthropic的达里奥·阿莫迪。
而早在5月31号之前的3月29日,“生命未来研究所”(Future of Life Institute,FLI)发布的《暂停人工智能巨模型实验》公开信中就已经出现类似警示:
呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,至少暂停6个月。
斯图尔特·罗素是最早和霍金等人发表了署名文章号召大家警惕人工智能可能给我们带来威胁的人,并共同发起了英国剑桥大学生存风险研究中心(Board of the Centre for the Study of Existential Risk),并成为人工智能领域唯一科学家任职理事会成员。
他也是历史上第二位获得过两项IJCAI主要奖项(卓越研究奖、计算机与思想奖)的科学家(国际人工智能联合会议(简称为IJCAI)是人工智能领域中最主要的学术会议之一)。
作为当今世界上人工智能领域的权威专家,他曾与谷歌研究总监彼得·诺维格合著出版了人工智能领域里的“标准教科书”《人工智能:现代方法》,该书被100多个国家的1500多所大学使用。
这本书几乎是为全世界范围的人工智能教育提供了标准范本,推动了人工智能知识的快速普及,为人工智能教育做出了重大贡献。今年年初,该书的第四版中文版也与中国读者见面。
人们越来越担心 ChatGPT 等人工智能模型的发展可能对社会和就业带来的潜在威胁,唯恐它将对社会造成不可挽回的破坏。
那此时,我们不禁要问:AI觉醒前夜,ChatGPT真的会是那个最优解么?
近日钛媒体集团合伙人、区块链知名媒体数据平台链得得(ChainDD)总裁——李非凡与《人工智能:现代方法》作者——斯图尔特·罗素,一起开启了一场谈AI论未来的尖峰对话,共同探讨关于人工智能技术的现状发展以及未来趋向。
后来人们发现可以选择扩大判断上下文的词汇数量,以前只通过一个单词去判断上下文,所以如果我说 Happy,你可能会说下一个词可能是 Birthday,这是上下文中的单一词汇语境的判断,即只是通过 Happy 一个单词来预测下一个单词是 Birthday。接下来可以开始根据上下文写出 5 到 10 个单词,这就给了人们更多的帮助,然后又把词汇数量扩大到几百个。”
罗素博士认为,现在有了 GPT-4 和 32000 字的上下文语义处理,要基于这么多的上下文词汇进行预测,就需要一个更大的模型,就需要更多的参数。而且人们发现,随着词汇规模的扩大,输出准确性的改善。如果大家问ChatGPT一个问题,那么这个问题的自然延续刚好就是这个问题的答案。
有些时候 ChatGPT 会因此开始有所改善,但大多数情况下,ChatGPT 并不明白为什么说它“做错了”,并且不会产生任何的变化。但仍然可以让大家感到非常自豪的是,ChatGPT 的错误行为依然还是比以前减少了29%,当然它仍然有许多错误行为。它还是会给你一些不符合逻辑的或者违法的建议,所以现在很多人都在思考,到底什么是对于ChatGPT更合理的规定。
罗素博士个人认为,合理的规定包括不提供医疗建议,不描述如何制造化学武器。而目前大语言模型还无法通过这些测试。人们会认为错误的诞生是因为相关法律法规出现了问题,不过他还是认为大语言模型才是错误的那一方,而人们必须去修正它们,这样才能更好地去遵守那些合理的法律法规。
经济学家会说,技术在摧毁旧的工作岗位的同时,也在不断创造新的工作岗位,而且新的工作机会会更好。但是如果人工智能也能做新的工作怎么办?
所以他认为各国政府必须非常认真地对待这个问题,他表示他曾与经济学家、科幻作家和未来派艺术家合作,试图设想出一个未来,在这个未来中,人工智能系统几乎可以完成目前人类可以做到的所有事情,那会是一个真正令人向往的未来。
但是很遗憾迄今为止,他们都失败了,他们真的无法描述出这个未来。而如果没有准确的目标,就很难制定这个发展引渡计划。每个人都知道世界将会在人工智能的影响下面临一个巨大的转变,但是如果大家不知道明确的目的地,就很难围绕这个目的制定计划。
但问题是目前这种建立越来越大的语言模型的方向,是否能抵达真正的通用人工智能?他个人觉得是不会的。他还补充道,不仅他这么认为,OpenAI 的现任首席执行官和联合创始人山姆·阿尔特曼在演讲中也发表了同样的观点。
对此观点罗素博士也给出了他的原因:因为大语言模型不具备让人变得更聪明的能力。
所以他认为想要抵达真正的通用人工智能,需要在两个方向上投入大量的努力:
第一,如何把已经建立起来的东西,比如 ChatGPT,变成可以在实际环境中使用的工具。
罗素举例道:“比如我是一家保险公司,我想使用语言模型与我的客户交流,那么语言模型必须告诉客户产品的真相,它必须按照规定推荐给每个用户合适的保险产品,如果它违反了这些规定,那么保险公司将面临政府的巨额罚款。因为保险业受到严格监管,所以目前不能在这些领域中使用大语言模型,所以大家要付出巨大的努力来驯化这个“野兽”,如何将一只野狗驯化成一只行为规矩的家犬,这是众多人工智能领域的公司正在努力的一个大方向。”
第二,如果大语言模型不是创造 AGI 的答案,那么什么才是?它们是拼图的一部分,但不是整个拼图。
这个的困难在于大家并不真正理解它们是拼图的哪一部分,甚至不知道这些碎片的形状,也不知道上面的图案是什么。所以也并不知道还需要什么,才能创造出通用人工智能,这些都是更为基础的研究问题。
06.元宇宙可能是普通人驾驭人工智能的一次机会李非凡以几个月前,自己公司做的嵌入人工智能功能的元宇宙产品为例,向罗素博士提出问题,他表示,由硅基生命形式为主导的人类世界首次在虚拟游戏中实现,NPC 成为虚拟世界的原住民,人类玩家则变成了这个世界偶尔出现的访客,对于这样的事情罗素博士有怎样的看法?
对此罗素博士认为,虚拟现实这种沉浸式的体验,可能性还没有得到充分利用。他认为这是有巨大潜力的,这种沉浸式体验可以形成一种比书籍、电影或音乐更强大的艺术形式。
它可以涵盖所有这些形式,甚至更多,因为它能以各种有趣的方式回应人们,说到这里,罗素博士也希望艺术家们能利用这一点,尝试开始探索在这个领域能做些什么,这样大家就不会仅仅把虚拟现实,想象成一个只去打怪升级的地方。
程序是有意识的还是无意识的并不重要,重要的是,它每一步都下得很好,而我什么都做不了,我输了这场比赛。这在现实世界里也是一样的。无论是在象棋盘上,还是在围棋盘上,或者在现实世界中,重要的是系统做了什么,我们能否采取足够的手段来确保我们保持对系统的控制,即使这个系统比我们更智能,我们也必须设法避免冲突。
因为如果创建的 AI 没被设计好,追求的目标与我们关心的目标不一致,那么大家就会面临真正的问题。”
08.人工智能最需要“负责任的创新”李非凡提出在社会范畴内,像自动驾驶领域发生的一些交通事故会造成人员伤亡,有没有一个标准框架来评判人工智能判断造成的损害与它应该承担的责任?
对此罗素博士认为,以自动驾驶汽车的标准来说,这应该是生产商要负有的责任,这被称为严格责任。这意味着谁有过错并不重要,只要自动驾驶汽车撞死了人,那么生产商就要承担起责任。
他说道:“之前在比利时发生了一起案件,一名男子显然是因为与聊天机器人对话后自杀,我相信他的家人正在起诉该公司,我们可以看看后续进展,我们也可以等等法院对这件事的看法。有很多例子通常是非法行为,比如无照提供医疗建议。据我所知如果有人因此而受到伤害,语言模型的生产商将承担责任。”
罗素博士认为,现在大语言模型的开发者,通常将模型出售给另一家公司,后者在此基础上开发更为具体的应用程序。所以在欧盟,有人工智能法案,这是一项新的法律,应该会在今年年底前完成。
他举例道:“如果你已经接触了一亿消费者,那么再增加一亿消费者也不会有多大区别。重要的是你对每个人的信息了解多少,因为这可以让你对那个人提出有帮助的高质量建议。”
所以罗素博士认为这是像腾讯这样的公司具有优势的地方,因为它们在市面上拥有如此多的 APP 应用,像是微信、QQ等,大家可以从社交应用中获取人们的关系网,可以获取类似 Facebook 和亚马逊们可以得到的同类信息,还有更多信息来源。包括人们购物行为中的财务数据。因此当一个平台有更多关于用户的数据,这样才有可能给每个人提供更多帮助,所以一般人们会认为腾讯这样的公司在这个维度会略微领先于西方的传统互联网巨头。
10.初创公司距离下一个OpenAI还有很远和大公司相比,现在的初创企业从什么角度切入,在人工智能领域成功获得商业回报的可能性最高?
罗素博士表示,在他看来,就进入市场的方式而言,目前初创公司很难获得足以与 OpenAI 竞争所需的资源。目前据他所知,有 5 到 6 家初创公司有足够的资金,但每家公司的资金都在 2-5 亿美元左右。他们需要这么多资金,因为他们需要大量的计算能力,需要获取大量的数据,也需要很多的工程师。
因此罗素博士认为在这样的前提下,另一种选择是,使用现成的系统,可能是开源的系统,或者也可以去获得 ChatGPT 的使用许可。各种各样的大语言模型是有市场的,而且获得许可的费用并不是很高,最大的机会是能否想办法让这些系统好好运行,遵守规则忠于事实,然后才能被用于公司内部的这些重要应用中。
罗素博士补充道,每天人们都会想出一种新的创造性方式来使用这些人工智能系统,这些系统不是智慧体,它们与人类大脑的形状不同,但它们仍然是有类似于真人的智力,人们将找到数以千计的方法来创造性地使用这些新工具。
他建议初创公司可以尽可能多地查阅人们寻找创造性方法来使用人工智能系统的例子,在这个过程中,基于自己在某个特定市场的经验,说不定就可以想出什么创新性的应用方式。
11.指引人工智能未来的道德律令李非凡表示,每个时代都有一套有关人工智能的设定规则,那么未来应该制定什么样的规则来引导人工智能进入下一阶段?
罗素认为人们应该更换什么限制,施加什么要求,这取决于人工智能公司如何让它们的系统运行,这不是由政府决定的,也不是由消费者决定的,更不是由学者决定的,目前大家能做的工作只是说明这些系统必须满足的标准是什么。
未来我们需要做到以下几点:
1.对虚假错误信息进行限制
输出虚假信息的能力是一个巨大的问题,罗素博士认为很难完全消除这一点。首先就需要就虚假信息来制定使用这些系统的规则,假冒的行为也应该一起禁止。应该制定有关于输出类型的限制规则,比如提供无照医疗建议的这类规则,可以先列出不想让系统做的事情,然后再在惩罚和报告机制中建立执行规定。
2.迅速修改和更新人工智能规则
经合组织OECD有一个人工智能事件数据库,人们可以向其提交人工智能系统造成问题的不良行为报告,当收到这些报告时,可以更新相关规定。罗素博士认为能相当迅速地制定和修改 AI 规则才是关键点,因为当通过任何一项法规之后,很可能六个月后它就会变得无关紧要。
3.专业机构和管理机构的良好协同
对于飞机和核电站等专业技术领域,目前有专业的监管机构,他们拥有制定规则的权力。所以不需要每隔六个月就去国会或欧洲议会要求通过一项新法律,国会和欧洲议会将制定规则的权力下放给一个专门机构,这是绝对必要的。当这些机构在世界各地成立时,它们需要相互协调,追踪正在发生的事情,出现了什么问题,如何解决这些问题,并确保在世界各地的一致性。这样公司就无法为自己人工智能系统的不当行为找到一个法外之地,做他们不能在其他国家做的事情。
罗素博士表示,他可以保证,世界各地很多人工智能专家、监管机构、政客、公司都正在对这个话题进行着热烈的讨论。OpenAI、微软、IBM 等公司自己都主动站出来表示:政府需要对这个行业进行监管,这是一个重要的新消息,以前大多数科技公司一直在说“不要监管,监管扼杀创新”。现在它们说不,“在我们再次杀人之前请监管我们”,这就是大家所处的境况。
钛空时间新书推荐——《人工智能:现代方法》
原价:¥198
钛空舱特惠价:¥139
本书全面、深入地探讨了人工智能(AI)领域的理论和实践,以统一的风格将当今流行的人工智能思想和术语融合到引起广泛关注的应用中,真正做到理论和实践相结合,赶紧下单购买吧!
「钛空时间|共读时刻」是钛空时间特约读书栏目。这里是新兴企业家、新一代创变者的精神阵地,以读书、知识、文化为纽带链接每一个独特的个体,解构每一个独特灵魂的思考轨迹。
我们每期邀请特约嘉宾通过共读一本好书来探究事件本质,以先进的思想和前沿的视野,为大家捕捉行业新动态,打开创新新思路,掌握发展新方法!
相关文章
猜你喜欢