尽管微软积极拥抱ChatGPT等生成式 AI 技术大模型,但Copilot 仍不可避免“胡说八道”、错误信息反馈等 AI 带来的风险问题。
“有时Copilot会做对,有时它会出错,给你一个不完美的想法,但仍然让你领先一步,”Spataro在演示中提出该软件会产生不准确反馈。但这一次,微软将这项技术称为“有用的错误”(usefully wrong)——Copilot在Office当中的信息反馈可能不是事实,需要人们手动去纠正。
例如,如果一个人想创建一封祝家庭成员生日快乐的电子邮件,即使它提供了错误的出生日期,Copilot仍然可以提供帮助。在微软看来,该工具生成文本这一事实本身就为人们节省了一些时间,因此是有用的,人们只需要格外小心,并确保文本不包含任何错误。
Spataro随后在一篇文章中指出,此次微软通过指出限制、链接到资源并提示用户根据主题专业知识审查、事实检查和调整内容来明确系统做出决策,并强调该公司的 AI 原则使微软产品需要被信任。据媒体报道,微软最近解雇了 AI 道德与社会团队,外界认为这将增加GPT模型 微软的产品和服务所带来极高的可靠性风险。
“为了解决客户未满足的需求,团队必须迅速而负责任地采取行动,边走边学,”Spataro表示,微软正在与一小部分客户一起测试Copilot,以在其扩展时获得反馈并改进对应模型。
但 AI 行业研究人员表达不同意见,人们担心可能过于信任 AI,更倾向于ChatGPT的信息用于实际生活中。
“ChatGPT的毒性护栏,很容易被那些一心想将其用于邪恶目的的人所规避。所有新的搜索引擎都在产生幻觉。真正重要的是,是否有任何大公司可以打造我们可以真正信任的 AI。”有 AI 领域专家在《时代》(Time)杂志中这样写道。
对此,微软首席科学家Jamie Teevan表示,当Copilot“出错或有偏见或被误用”时,微软有“适当的缓解措施”。此外她解释称,微软最初将仅与20家企业客户一起测试该软件,以便了解与反馈相关问题。
微软表示,在接下来的几个月中,将向更广泛的客户扩展这些预览版,并将向开发者分享更多关于 AI 插件信息,以便可以计划在整个组织中启用Copilot。
“我们会犯错误,但当我们犯错误时,我们会迅速解决它们,”Teevan表示,“我研究 AI 几十年了,我对这个强大的新工具感到了巨大的责任感。我们有责任以正确的方式将它交到人们手中。”
(本文首发钛媒体App,作者|林志佳)
相关文章
猜你喜欢