OpenAI 徽标
当金钱妨碍时,最好的意图可能会被破坏。
OpenAI 成立于 2015 年,是一家非营利性公司,其主要关注点是确保安全地创建通用人工智能 (AGI) 并使全人类均匀受益。
“作为一个非营利组织,我们的目标是为每个人而不是股东创造价值。” 是吗?
2019 年,OpenAI 成为一家名为 OpenAI LP 的营利性公司,由一家名为 OpenAI Inc 的母公司控制。其结果是一种“利润上限”结构,将投资回报限制在原始金额的 100 倍。如果你投资 1000 万美元,你最多只能得到 10 亿美元。不完全是我所说的上限。
变革几个月后,微软注资 10 亿美元。OpenAI 与微软的合作关系是基于允许后者将部分技术商业化的,正如我们在GPT-3和Codex中看到的那样。
OpenAI 是引领人类走向(据称)更美好未来的最强大力量之一,现在却被继续探索所需的资金所压制。我们能否相信他们会信守诺言并继续专注于构建 AI 以造福人类?
金钱永远占上风OpenAI 是一个人工智能研究实验室。但它的野心对于它所拥有的资源来说是遥不可及的。培训 GPT-3 花费了他们大约 1200 万美元。只是训练。如果不是来自最终会要求回报的更大的人,他们在世界上哪里能得到这么多钱?当他们意识到他们需要投资时,微软在那里等待提供云计算服务以换取许可证,以当时未公开的隐蔽方式将他们的系统商业化。
《麻省理工科技评论》AI 记者 Karen Hao 进行了调查,回答了有关 OpenAI 的一些问题。在一篇精彩的文章中,她揭露了 OpenAI 在他们的话语中的不一致之处。为什么一家以确保所有人拥有更美好未来为基础的公司决定“为了保持相关性”,他们突然需要大量私人资金?从非营利性到营利性的转变在公众舆论甚至公司内部引起了狂热的批评。
艾伦人工智能研究所所长 Oren Etzioni 也对这一消息持怀疑态度。“我不同意非营利组织无法竞争的观点。[...] 如果规模越大、资金越多越好,那么 IBM 仍将是第一。” 曾在 Vice News 撰稿的卡罗琳·哈斯金斯 (Caroline Haskins)不相信 OpenAI 承诺忠于他们的使命:“[W]e 从来没有能够依靠风险资本家来改善人类。”
OpenAI 决定将重点放在由更大的计算机和大量数据驱动的更大的神经网络上。他们需要钱,很多钱,才能继续这条路。但是,正如 Etzioni 所说,这并不是在 AI 中取得最先进成果的唯一途径。有时你需要创造性地思考新的想法,而不是“把更多的铁放在旧的后面”。
OpenAI 如何成为这个故事的反派GPT-2 和 GPT-3,“危险”的语言生成器2019 年初,已经是一家营利性公司的 OpenAI 宣布推出GPT-2,这是一种能够生成人类水平文本的强大语言模型。研究人员认为 GPT-2 在当时是一个巨大的飞跃,因为太危险而不能发布。他们担心它可能被用来“传播假新闻、垃圾邮件和虚假信息”。然而,不久之后,他们在发现“没有强有力的滥用证据”后决定分享该模型。
罗格斯大学 (Rutgers University) 教授布里特·帕里斯 (Britt Paris)表示,“OpenAI 似乎正试图利用围绕 AI 的恐慌情绪获利。” 许多人将围绕 GPT-2 的兴奋视为一种宣传策略。他们认为该系统并不像 OpenAI 声称的那样强大。然而,从营销的角度来看,他们可以吸引媒体的注意力,并首先对 GPT-2 进行他们想要的炒作。OpenAI 否认了这些指控,但公众舆论并不满意。
如果 GPT-2 没有他们宣称的那么强大,那为什么要让它看起来比实际更危险呢?如果它真的那么强大,为什么仅仅因为他们“没有发现滥用的有力证据”就完全释放它?无论哪种方式,他们似乎都没有遵守自己的道德标准。
2020 年 6 月,GPT-3——GPT-2 的继任者——通过API发布。OpenAI 似乎认为新系统——比 GPT-2 大 100 倍,更强大,因此本质上更危险——足够安全,可以与世界分享。他们设置了一个候补名单来逐一审查每个访问请求,但他们仍然无法控制系统最终的用途。
他们甚至承认,如果产品落入坏人之手,可能会发生几个问题。从潜在的滥用应用程序——包括“错误信息、垃圾邮件、网络钓鱼、滥用法律和政府程序、欺诈性学术论文写作和社会工程借口”——到偏见——强调性别、种族和宗教。
他们认识到存在这些问题,但仍决定允许用户试用该系统。为什么通过 API 发布它而不是开源模型?好吧,OpenAI表示,其中一个原因是“为 [他们] 正在进行的 AI 研究、安全和政策工作买单。”
总结一下:“负责”保护我们免受有害人工智能侵害的公司决定让人们使用一个能够传播虚假信息和危险偏见的系统,这样他们就可以支付昂贵的维护费用。对我来说,这听起来不是很“对每个人都有价值”。
不出所料,社交媒体上很快就出现了关于 GPT-3 可能造成的潜在损害的激烈讨论。Facebook 人工智能负责人 Jerome Pesenti 写了一条推文,他在推文中举了一个例子:
他说:“我希望 OpenAI 更加开放,不那么耸人听闻,通过开源 [GPT-2 和 GPT-3] 进行研究,特别是在#responsibleAI 方面,同时承认两者都没有准备好投入生产。”
在一次利用 GPT-3 的独特性的无辜尝试中,利亚姆·波尔 (Liam Porr) 让系统写了一篇他会与订阅者分享的生产力文章,但没有透露技巧。这篇文章在 Hacker News 上排名第一。如果加州大学伯克利分校的一名学生 Porr 成功地用 AI 编写的作品愚弄了所有人,那么一群怀有恶意的人会做什么?
一件事是传播假新闻,另一件事是非常不同的事情是传播无法与其他人工撰写的文章可靠地区分的假新闻。而这正是 GPT-3 的能力,也被 OpenAI认可甚至强调:
“[M] 人类检测 GPT-3 175B 生成的较长文章的平均准确度仅略高于 52%。这表明,对于大约 500 字长的新闻文章,GPT-3 继续生成人类发现难以与人类书面新闻文章区分开来的文章。”
法典和副驾驶,违法今年他们做了类似的事情。
几周前,GitHub、微软和 OpenAI 发布了Copilot ,这是一个建立在Codex之上的人工智能系统,旨在成为 AI 结对程序员。撇开对劳动力的潜在威胁不谈,它受到了强烈批评,因为该系统是盲目地使用来自公共 GitHub 存储库的开源代码进行训练的。
GitHub 首席执行官 Nat Friedman在 Hacker News 中分享了这一消息,引发了人们对使用 Copilot 的法律影响的担忧。一位用户指出了一些未解决的问题:
“很多问题:
- AI生成的代码是我的还是GitHub的?
- 生成的代码属于什么许可证?
- 如果生成的代码成为侵权的原因,谁应该受到指责或采取法律行动?”
重要的开源开发人员 Armin Ronacher 在 Twitter 上分享了 Copilot 剽窃一大块受版权保护的代码的示例:
对于另一位用户的回应:“这里我们有 GitHub [Copilot] 直接复制 GPL 代码块的直接证据,证明这 [是] 在商业环境中使用的真正危险的工具。”
更深入地说,即使 Copilot 没有逐字复制代码,也会出现一个道德问题:像 GitHub 或 OpenAI 这样的公司可以使用成千上万开发人员生成的开源代码来训练这些系统,然后出售这些系统的使用吗?对那些相同的开发人员?
对此,程序员兼游戏设计师 Evelyn Woods表示:“感觉就像是在对开源开怀大笑。”
我们应该寄希望于 OpenAI 吗?OpenAI 现在的真正意图是什么?他们是否与微软的利益紧密相连,以至于忘记了“造福人类”的初衷?还是他们真的认为自己是拥有最好的工具和思想来开辟这条道路的人,即使这意味着将他们的灵魂出卖给一家大型科技公司?我们是否愿意让 OpenAI 按照他们的意愿构建未来,或者我们是否应该分散我们的意图,更重要的是,将它们与经济利润分开?
OpenAI 是朝着更复杂形式的人工智能发展的主导力量,但还有其他不受金钱约束的非常有能力的机构也在做相关工作。他们可能不喜欢有钱舒服地躺着,这可能正是我们应该更加关注他们的工作的确切原因。
归根结底,大型科技公司的首要任务不是构建通用人工智能的科学好奇心,也不是构建最安全、最负责任、最符合道德的人工智能类型。他们的首要任务——这本身并不违法——是赚钱。令人怀疑的道德可能是他们会不惜一切代价去做,即使这意味着走上我们大多数人会避免的晦涩路径。
就连 OpenAI 的联合创始人埃隆·马斯克也同意这些批评:
最后的想法也就是说,我仍然相信 OpenAI 员工将他们最初的使命作为他们的主要动力。但他们不应该忘记,为了达到目的并不总是不择手段。这些手段可能会损害更高的目标。
我们想要通用人工智能吗?从科学上讲,答案不能是“不”。科学的好奇心是没有限制的。但是,我们应该始终评估潜在的危险。核聚变是了不起的,但核聚变炸弹却不是。
我们要不惜一切代价想要 AGI 吗?现在,从道德上讲,答案不能是“是”。这就是我们应该关注的地方,因为我们在快速推进这些技术的过程中将面临的紧迫问题将影响到我们所有人。迟早。而那些只关心肚脐的人,无论是 OpenAI 还是其他人,都将对后果承担很大程度的责任。
相关文章
猜你喜欢