近日,微软升级了 AI 语言模型 GPT-3,并将其内置在 Azure 云套件中开放给商业客户。
GPT-3 由 AI 研究组织 OpenAI 于 2020 年开发,同年 9 月,微软取得 GPT-3 的独家授权。据了解,微软曾在 2019 年向 OpenAI 进行投资,并成为其唯一的云提供商,两者将一同为 Azure 云平台开发 AI 技术。
GPT-3 能够对文字片段(比如邮件或诗歌)进行续写,同时,利用其分析语言的能力也能够承担总结文档、分析文本情绪、为项目和故事生成想法等任务,其可以说是现今最好的新一代 AI 语言模型。
微软举了一个 GPT-3 的应用示例。
体育赛事经营者可以为球迷构建一个应用程序,提供解说推理、比赛亮点总结和实时分析。宣传运营团队也能利用 GPT-3 来写原创的社交媒体或博客文章,从而以较快的速度与粉丝们互动交流。
图 | 动态语言模型(来源:微软)
不过,对于 GPT-3 等大型 AI 语言模型,仍有一些不同的声音,认为它们存在重大的问题。
这些声音认为,这类模型所产生的内容大部分都是 “垃圾”,仍需要人类来区分 “好” 与 “坏”。而且,AI 会产出许多陈旧的偏见内容,比如,性别歧视、种族主义、将穆斯林与暴力联系在一起等等。当我们在使用AI模型的时候,这些不友善的观念,肯定会伤害到用户。
针对可能存在的问题,微软目前也确实采取了一些保障措施。
微软 Azure AI 的负责人莎拉·伯德(Sarah Bird)说,“由于这些大型语言模型是在大量互联网数据上训练的,这些数据可能包含粗俗语言、种族成见、个人识别信息等内容,因此为企业客户提供保障措施,帮助防止 GPT-3 被用于有害目的或产生不良结果非常重要。”
据了解,微软采取的措施包括仅允许被微软邀请的客户使用 Azure 云上的 GPT-3,同时审查客户的使用案例,并提供过滤工具,以防止不当内容的输出,客户也能够根据业务需求定制这些过滤器。此外,微软还将提供安全监控和分析工具,以识别可能的滥用行为。
然而,这些限制是否有效目前尚不清楚。因为,当被问到过滤工具究竟如何工作,或者是否有证据表明其可以减少 GPT-3 的不当输出时,微软并没有正面回答这个问题。
华盛顿大学计算语言学教授艾米丽•本德(Emily Bender)曾撰写过大量关于大型 AI 语言模型的文章,她说,微软做出的保障措施缺乏实质内容,且其发布的新闻稿中也有指出,GPT-3 的培训数据可能含有关于种族成见等各类内容。
本德指出,微软推出的 GPT-3 并不符合它自己设定的人工智能道德准则。这些准则中其中有一条是透明度原则,也就是人工智能应该是可以理解的。而 GPT-3 训练数据的具体构成仍是一个谜。微软声称这个系统 “理解” 了语言,而这引起许多专家的强烈质疑。
“我希望微软不是为了销售 GPT-3 而在进行人工智能炒作。最后,尽管 GPT-3 过滤器的功能还未经证实,但微软如果仔细选择客户就可以避免很多麻烦。大型 AI 语言模型当然是有用的,只要其输出可通过人类检查。” 本德说道。
-End-
参考:https://www.theverge.com/2021/11/2/22758963/microsoft-openai-gpt-3-azure-cloud-service-ai-language?scrolla=5eb6d68b7fedc32c19ef33b4https://blogs.microsoft.com/ai/new-azure-openai-service/
相关文章
猜你喜欢