去年11月,ChatGPT横空出世,震惊了世界。在一些人看来,以此为代表的生成式人工智能是一次伟大的技术革命,意义可能不亚于个人电脑问世。但在另一些人看来,以目前人类的认知水平,ChatGPT实在太过危险。
对于生成式人工智能的规范问题,迅速进入了法律界人士的视线。昨天(7日),2023世界人工智能大会法治论坛举行,本次论坛主题为《数字治理:生成式人工智能之法律回应》。来自学界、业界、实务界的中外专家学者围绕如何规制生成式人工智能进行探讨。
对社会伦理、秩序的冲击不可小视
在与会专家看来,生成式人工智能和以往的互联网侵权行为有着明显不同,它本身一般不会造成具体个人的安全问题或财产损失,但在现有模式下,会对知识产权保护、信息甄别造成巨大冲击。
“ChatGPT产生的文学、艺术等成果,能否认定为著作权法上的作品?如果能,著作权到底是归技术开发者,还是使用者,亦或是都不属于,这个到现在为止都没有形成共识。”中国人民大学教授王利明说,更严重的隐患可能来自于生成式人工智能产生的大量足以乱真的虚假信息,这些虚假信息有的来自于程序上的漏算,有的来自于使用者的恶意,一旦传播开来,极有可能造成社会动荡。
蚂蚁集团副总裁、首席合规官李臣也持有类似观点。在他看来,知识产权保护、个人信息安全是互联网产业发展过程中长期存在的问题,不是生成式人工智能出现后才发生的。但是,难以甄别的虚假信息,或者包含歧视、偏见、错误的内容,却有可能经ChatGPT大量产生、传播,对社会伦理、秩序的冲击不可小视。
在认为生成式人工智能会给人们的生活带来便利的同时,科大讯飞副总裁、司法业务部总经理雍文渊指出,真假难辨的信息有时也会误导公众。他以人工智能服务司法为例,目前人工智能已经能够帮助普通人编写法律文书、提供专业的法律法规建议,但是,发生在美国的一起官司中,律师援引了6篇判例,最后被证明都是ChatGPT自行编撰的。即使是业内人士都难以看出端倪,更何况普通人。
还有与会专家提出,生成式人工智能的发展建立在海量的数据基础上,这个过程中不可避免会发生跨境数据流动,如何保证国家的信息安全也是一个难题。此外,越来越多金融、法律、政务服务中使用生成式人工智能代替传统的人工解答,但这些行业大多具有较高的准入门槛,需要考取相关资格证书,ChatGPT算不算无证上岗?
技术落后才是最大的风险
事实上,自诞生以来,呼吁对ChatGPT进行法律、伦理规制的声音就不绝于耳。今年3月,特斯拉创始人马斯克、《人类简史》作者赫拉利、图灵奖得主约书亚·本吉奥等上千位企业家、科学家就联名呼吁暂定相关研究至少6个月,以便相关监管能跟上。对此,与会专家普遍认为,加强监管是必要的,但必须把握好尺度,尤其要注意不能过分阻碍其发展。
“我们需要形成一种价值取向,既要正视生成式人工智能存在的风险,又要认识到技术落后才是最大的风险。”在具体监管上,王利明建议,除去开发者有意侵犯公民个人信息之类的特殊情况,绝大多数时候,对生成式人工智能带来的法律风险应采取过错责任制,并适用现行的通知删除原则。
所谓过错责任制,指的是在事后审查时,判断标准是开发者是否已经尽到了最大注意义务,但受限于当前技术条件,所以无法完全避免损害发生。若是,那就不宜认定其存在过错。而通知删除原则是指我国民法典和个人信息保护法规定,网络服务提供者在接到用户关于存在侵权可能的投诉后,有没有对具体信息进行筛查甄别,并采取删除等必要措施。
“从目前来看,生成式人工智能带来的侵权问题,还没有完全超出我国相关法律的规制范围。”王利明认为,当务之急是要对生成式人工智能的研究建立一套合规审查标准,为未来可能的专门立法做准备。
来自美国的学者,耶鲁大学法学院蔡中曾中国研究中心研究员陆凯指出,从奥巴马时期开始,每一届美国联邦政府都会制定出台人工智能监管相关的规章,不过,这些规章并非强制性的法律,即使真的违反,也不一定会受到法律制裁。“我认为,美国政府是借此释放一种态度,表示我们关注到了这个领域,鼓励大家都去探索。”陆凯说,相比较而言,联邦法院做出的一些具体判例,可能对美国规范人工智能更有参考价值。
李臣表示,当前对生成式人工智能的研究,俨然已经成为国际竞争的一条新赛道,我们不能置身事外,必须加入进去。“我觉得,规则竞争和技术竞争同样重要,我们要尽快研究建立全周期的合规管理与监测机制,在未来的国际规则制定中争取更大话语权。”
栏目主编:王海燕 题图来源:上观题图 图片编辑:笪曦
来源:作者:王闲乐
相关文章
猜你喜欢