除了巨头自上而下的规划外,民间的高手也通过ChatGPT尝试了意想不到的创意。前几天,上海一位00后小伙就在B站(哔哩哔哩)展示了用ChatGPT等AI技术“复活”奶奶的过程。他首先用AI绘画软件Midjourney绘出人像,将电话录音及录像视频打包放入语音合成系统,通过D-ID生成数字虚拟人,最后告诉ChatGPT“模仿奶奶的口吻来交谈”,这段视频的点击量已接近70万,让人工智能透出浓浓的人情味。
就像工业革命一样,大模型未来或许会被各行各业广泛应用,但CIC灼识咨询经理陈一心提醒,既要看到应用的可塑性,也要看到目前的局限性,“大语言模型的底层通常为生成式模型,其主要适用场景为基于历史海量数据和信息进行归纳并生成回复,在B端应用中可以充当一个知识广博的助理角色,但内容是否完全可信,仍需使用者进行人为判别。同时,该底层技术决定了大语言模型现阶段在预测、推断方面的性能存在局限,难以满足B端在业务决策方面的需求。”
踩油门与踏刹车都要重视
当业界都在为AI的进化“猛踩油门”时,一封由超过1000名科技领袖和研究人员签名的公开信则表达了另一种声音。信中表示,“广泛的研究表明,具有与人类竞争智能的人工智能系统可能会对社会和人类构成深远的风险”。
对安全性的质疑首当其冲。陈一心解释称,现阶段大语言模型都跑在公有云上,必然会引发部分B端用户对数据安全的顾虑。此前,三星引入ChatGPT不到20天,就发生了3次机密泄露事件,目前,部分对数据安全要求较高的B端用户要求AI模型私有化部署、不调用外部模型、保证所有数据与知识库不出本地,但“通用的大语言模型目前还无法满足这类要求”。
监管的及时跟进,被普遍认为是一种“踏刹车”方式。就在昨天,国家网信办就《生成式人工智能服务管理办法(征求意见稿)》公开征求意见,对一些“红线”和“边界”问题作出规定。比如:提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责;又比如:利用生成式人工智能产品向公众提供服务前,应当向国家网信部门申报安全评估,并按照相关规定履行算法备案和变更、注销备案手续。
该意见稿发布的前一日,中国支付清算协会也发布了《关于支付行业从业人员谨慎使用Chat GPT等工具的倡议》,指出要“正确认识ChatGPT等工具的机遇和风险,全面评估使用ChatGPT等工具处理工作内容的风险”。目前,国内外多家投行已限制员工使用ChatGPT。
但无论如何,新一轮科技革命的车轮已开始转动。正如阿里云CTO周靖人所说,“通义千问”的发布,不是起点,也不是终点,而是既定路线上的一个节点,它最终通往的是趋近人类智慧体的一种存在。把好油门与刹车,是为了更好掌控AI的前行方向,而不是让ChatGPT成为潘多拉魔盒。
作者:徐晶卉
编辑:张天弛
相关文章
猜你喜欢