大家仍然在争相寻找一个合理的解释,解释为什么OpenAI首席执行官Sam Altman上周五突然被解雇,这一决定导致了公司及其以外的绝对混乱。
除了一些模糊的控诉他在与董事会的沟通中“不一致坦率,妨碍其行使职责的能力”之外,公司的非营利董事会一直对为什么解雇Altman保持沉默。
截至撰写时,公司的未来仍然不确定,绝大多数员工准备辞职,除非Altman被恢复。
在我们等待对此有更多的清晰认识的同时,值得回顾一下Altman被解雇背后可能的原因。一个特别引人注目的可能性:关于Altman在公司努力实现有益的人工通用智能(AGI)的努力的角色,即公司自2015年成立以来的明确目标,以及这可能导致他被解雇。
也就是说,董事会是否将Altman排除在外,以拯救人类免于即将到来的厄运?听起来非常科幻,但整个公司也是如此。
让事情变得更加模糊的是,我们仍然没有完全就AGI达成共识的定义,这个术语大致相当于人工智能可以在与我们人类相当的智力任务上执行的一个点。
OpenAI自己的定义是,AGI是“在大多数经济上有价值的工作中优于人类的系统”,但这并没有完全捕捉到OpenAI的一些领导人在谈论这个概念的方式。就在上周,就在他被解雇的几天前,Altman本人在接受《金融时报》采访时将AGI描述为“天上的魔法智能”,召唤了一个接近上帝般的实体,这种说法被该公司的首席科学家Ilya Sutskever所重复,他是将Altman踢出OpenAI的关键人物。
但OpenAI真正接近实现这个目标吗?一些人推测,OpenAI的董事会之所以匆忙解雇前首席执行官,是因为他在公司发展AGI的努力中行事鲁莽,没有充分考虑发展AGI的风险。
这种推理可能表明,尤其是考虑到Altman被解雇的明显紧迫性(即使是主要投资者微软也感到措手不及),公司可能比它透露的要更接近实现这一目标。
然而,以确切的准确度告诉我们何时确切地达到了AI算法在执行给定任务方面优于人类的程度比听起来更加困难。
一些研究人员提出了可能的框架,以判断任何给定算法是否已经实现了AGI性能水平,但其他专家认为这不会一夜之间发生的过渡。
今年早些时候,微软的研究人员声称,OpenAI的GPT-4显示出AGI的“火花”,这些评论很快被他们的同行批评。
在Altman今年2月发表关于这个主题的博客文章后,阐述了他的公司创建一个“造福全人类的AGI”的目标,专家们对此表示不满。
“AGI这个术语负担很重,随意地将其挥舞得像是一个具有真实意义的东西是误导性的,”本特利大学数学教授Noah Giansiracusa在当时的推特中争辩说。“这不是一个科学概念,而是一个科幻营销策略。”
“你的系统不是AGI,也不是迈向AGI的一步,然而你却在其中加入了这样的说法,好像读者只是应该点头称是,”华盛顿大学语言学教授Emily Bender补充道。
简而言之,我们仍然不知道OpenAI离实现其目标有多近,而鉴于迄今为止我们所见到的——好吧,GPT-4甚至不能可靠地区分真实和虚构——可能需要更多的研究才能达到那里。
在Altman的领导下,OpenAI自己的核心优先事项显然发生了变化。上个月,Semafor报告说,该公司在其网站上将其所谓的“核心价值观”更改为将其集中在AGI上,将招聘页面上的价值观从“大胆”、“思慎”、“不矫饰”和“以影响为驱动”改为“AGI专注”——列表中的第一项——“紧凑而有干劲”、“规模”和“团队精神”。
Altman被解雇的时机也可能提供线索。上周初,该公司自豪地宣布了其大语言模型的新版本GPT-4 Turbo,以及允许用户使用其技术创建自己的聊天机器人的工具。
技术上仍然有可能,Altman利用该公司的财务成功,尤其是ChatGPT,可能已经在OpenAI的董事会中树敌。上周的公告引发了一阵狂热,OpenAI被迫暂时暂停其付费ChatGPT Plus服务的新注册,原因是“需求压倒性”。
考虑到OpenAI首席科学家兼董事会成员Ilya Sutskever几乎立即对他在董事会中起到的核心作用感到后悔,情况可能比公司透露的要复杂得多。
“我深感遗憾我参与了董事会的行动,”他在推特上写道。“我从未打算伤害OpenAI。”
“你为什么采取如此激烈的行动?”SpaceX首席执行官埃隆·马斯克,他于2018年与Altman一同创办了OpenAI,但因核心分歧于同年离开了该公司,并警告过技术问题,回应说。
“如果OpenAI对人类有潜在危险的事情,世界就需要知道,”他补充道。
相关文章
猜你喜欢