OpenAI创始人山姆·阿尔特曼35岁开出的那一“枪”,正中38岁的自己的眉心。他或许不曾想过,当年自己一手设立的权力结构,将在38岁的这一年以董事会的形式主导一场震惊世界的光速“政变”。但情况又在迅速反转。24个小时之后,随着OpenAI的投资者入局施压,董事会逐渐从掌握绝对主动权陷入被动。回归还是另起炉灶?
去还是留
如果进展顺利,这可能是最快被颠覆的一场“政变”。
11月19日,科技网站The Verge援引多位知情人士的消息称,OpenAI董事会正在与阿尔特曼讨论重返公司担任CEO的问题。但后者对回归感到矛盾,而且如果他选择了回归,将希望对公司的治理进行重大改革。
更重要的是,阿尔特曼已经有了另起炉灶的新打算,并考虑了哪些OpenAI员工将加入他们。据悉,一批OpenAI的高级研究人员已经接连辞职,更多人员正在酝酿离职中。
根据目前多方消息梳理,推动董事会态度转变的原因在于投资者的施压,后者要求董事会撤销罢免这一决定。据悉,微软CEO Satya Nadella一直与阿尔特曼保持联系,并承诺无论阿尔特曼下一步采取什么措施,都会支持他。
大约24小时之前,情况还对阿尔特曼极为不利。当时,OpenAI一封毫无预兆的声明炸翻了整个AI圈。内容显示,阿尔特曼将不再担任CEO并离开公司,CTO接任为临时CEO。格雷格·布洛克曼将辞去董事会主席职务,不过仍留在公司。
而旋涡中心的阿尔特曼本人更像是个局外人,在一无所知的情况下突然“被出局”。董事会声明发布后,阿尔特曼也只来得及在社交媒体上打出了一句震惊的“What”。
OpenAI董事会表示,阿尔特曼在与董事会的沟通中始终不坦诚,阻碍了董事会履行职责的能力。董事会不再对他继续领导OpenAI的能力充满信心。如何不坦诚?如何阻碍董事会履行职责?对于这一决定最关键的原因,声明却只是草草带过。
被OpenAI董事会留下的布洛克曼选择了追随阿尔特曼,作出辞职决定的同时还在社交媒体上还原了他所了解的事情经过。根据布洛克曼的梳理,OpenAI首席科学家伊利亚·苏茨凯弗或是这次罢免行动的主导。
OpenAI转舵
OpenAI成立于2015年,马斯克、阿尔特曼以及布洛克曼等都是发起人。2019年,定位本是非营利人工智能研究公司的OpenAI经历一次重大转型,成为一家营利性和非营利性共存的“利润上限”公司,也正是这次转型导致了马斯克的离开。
直到今年3月,马斯克还在社交媒体上公开炮轰OpenAI称:“我仍然很困惑,当初我捐赠了约1亿美元的非营利组织,如今为何变成了一家市值300亿美元的营利性公司?”
马斯克之惑,也是阿尔特曼之劫的导火索。对于引发风波的原因,目前外界普遍认同的观点是,这是一场营利派与非营利派的“派系之争”。前者代表的是OpenAI的前景,而后者代表的是OpenAI的初衷:创造造福全人类的安全的通用人工智能。
过去一年,因为ChatGPT的横空出世以及一系列高调的举动,阿尔特曼逐渐成为OpenAI的“灵魂人物”,其人物画像也越来越明显:激进是他,野心也是他,天才是他,疯子也是他。
但不得不承认的是,在商业化的进程中,阿尔特曼是成功的。The Information的报道称,OpenAI的年收入约为13亿美元。以860亿美元的估值计算,其估值相当于年收入的66倍。自上一轮融资以来,OpenAI的股价上涨了196%,微软的股价上涨了9%。
本月早些时候,OpenAI的首次开发者大会或许可以看作是其内部矛盾被无限放大的关键点。除了推出最新的大模型GPT-4 Turbo之外,OpenAI还宣布将在11月底推出GPT商店,支持用户通过自然语言定制自己的GPT,上传至GPT应用商店后可获得收入分成。
OpenAI打造生态的野心形成的那一刻,也就是站上非营利属性对面的那一刻。根据OpenAI官方公布的数据,从2022年11月30日发布至今,基于ChatGPT的API开发者大约200万人,超过92%的《财富》500强公司都在使用,每周大约有1亿活跃用户。
灵魂人物离开了,OpenAI还是OpenAI吗?这几乎是风波之后,外界会想到的第一个问题。资深人工智能专家郭涛对北京商报记者分析称,如果阿尔特曼真的无法重回OpenAI,这无疑会对OpenAI以及ChatGPT产生一定的影响,无论是在商业化还是在技术路线方面。
相比起来,阿尔特曼的另起炉灶可能会带来更现实的挑战。中国信息协会常务理事、国研新经济研究院创始院长朱克力对北京商报记者分析称,阿尔特曼在AI领域的才华和影响力会吸引一些OpenAI的员工跟随他,这可能会导致OpenAI的人才流失。
另一方面,朱克力补充称,如果阿尔特曼的新公司在技术路线和商业模式上与OpenAI相似,那么这可能会改变现在的大模型格局,使得AI领域的竞争更为激烈。
安全、商业难两全?
在营利与非营利的“派系之争”下,还存在着一个隐藏的boss——安全。非营利派的核心,除了造福人类之外,最关键的一个前提就是AGI研究本身是安全的,但在董事会眼里,OpenAI的迅速发展乃至朝向商业化的发展,已然突破了安全边界。
从目前投票罢免的董事会成员来看,安全也是他们最显著的标签。以主导罢免计划的苏茨凯弗为例,他在OpenAI主要负责的工作就是AI监督。
现在看来,阿尔特曼的离开,与其说是OpenAI营利还是非营利的冲突,不如说是大模型安全优先还是商业化优先的冲突。
从安全的角度看,OpenAI的确是在危险的边缘试探。今年5月,苹果就曾限制员工使用ChatGPT及其他外部AI工具,因为苹果在研发相关技术,担心机密数据外泄。
郭涛称,人工智能的快速进步在很大程度上推动了自然语言处理领域的发展,但同时也带来了一些安全性的问题。一方面,由于技术进步速度过快,很多潜在的风险和安全隐患可能没有得到充分的评估和解决。另一方面,ChatGPT的强大能力也可能会被用于不正当的目的,如生成伪造文本、制造谣言或者进行网络欺诈等行为。
但郭涛同时认为,不能因为存在安全性问题就否定ChatGPT的发展。相反,应该从多个角度出发来解决这些问题。AI发展、安全与商业化之间的平衡问题是一个复杂而重要的议题。商业化可以为AI技术的发展提供资金支持和推动力,但同时也需要确保安全性和道德规范的考量。“我们需要在技术发展和商业利益之间找到一个合适的平衡点,以确保AI技术的可持续发展和社会接受度。”
经济学家、新金融专家余丰慧也对北京商报记者分析称,在AI发展中,安全性是至关重要的,因为不完善的AI系统可能会导致不良后果。平衡AI发展、安全性和商业化之间的关系是一个复杂的问题,需要综合考虑技术成熟度、道德准则和法律法规等因素。
国内如火如荼的“百模大战”也势必会遭遇安全的关卡。中国科学院院士何积丰就曾提醒,大模型的生成能力让隐私泄露方式变得多样化,使隐私保护更加困难。
北京商报记者 杨月涵
相关文章
猜你喜欢