这是一个必要的解决方案,但却是一个肤浅的办法。OpenAI 通过筛选过滤用户能提出哪些要求,或者删减屏蔽底层模型产生的内容,以此来解决其用户标记的许多问题。但它并不是在解决模型本身或模型训练所需的数据中的问题。尽管这种方法使 OpenAI 得以快速解决问题。但对一些人来说,这相当于贴上了一个创可贴。
“算法模型中的社会偏见问题是巨大的,”伦敦经济学院的朱迪·瓦克曼(Judy Wajcman)说,她也在图灵研究所从事数据科学和人工智能领域的性别问题方面的研究。“(OpenAI 把)很多精力都投入到技术修复上,我称赞所有这些努力,但它们并不是解决这个问题的长久之计。”
OpenAI 表示,为解决 DALL-E2 的性别和种族偏见而进行的工作给了它们着手全面启动该项目的信心。然而,这并不代表该项目已经一锤定音。人工智能中的偏见是一个有害而且棘手的问题,随着新问题的出现,该公司将不得不继续进行“打地鼠游戏”般的修复。OpenAI 表示,只要产品需要调整,他们就将暂停推广。
韦林德说,这是一种权衡之举。这些调整有时会以意想不到的方式限制用户创作的内容。例如,当 OpenAI 首次发布针对性别偏见的修复方案时,一些用户抱怨说,他们现在有了太多的女版超级马里奥的图片。这种情况很难预测,韦林德说:“看到人们试图用 DALL-E2 来创作什么内容,可以让我们对模型进行微调和校准。”
但是,监控由 100 万或更多用户产生的数亿张图像将是一项艰巨的任务。韦林德不愿透露需要多少人工审核员,但他们将是内部员工。
该公司采用了一种混合的审核方法,结合了人工判断和自动审查。韦林德说,团队的组成可以根据需要进行调整,比如增加更多的审核员,或调整人类干预与机器干预之间的平衡。
2022 年 5 月,谷歌展示了自己的图像制作人工智能 Imagen。与 OpenAI 不同,谷歌很少提及其对这项技术的计划。”关于 Imagen,我们还没有任何新消息可以分享 re,”谷歌发言人布莱恩·加布里埃尔(Brian Gabriel)说。
当 OpenAI 于 2015 年成立时,它被塑造为一个纯粹的研究实验室,对通用人工智能抱有信仰,并承诺确保该技术将造福人类——如果它真能实现的话。但在过去几年里,它已经转向成为一家产品公司,向付费客户提供其强大的人工智能模型。
"这仍然是同一愿景的一部分,韦林德说:“将我们的技术作为一种产品和大规模推广应用是我们使命的关键一环。趁着风险还不算太高,尽早围绕着技术的可用性和安全性进行产品迭代是非常重要的”
支持:王贝贝
参考资料:
相关文章
猜你喜欢