作者:□张玮 张文言
美国人工智能研究公司OpenAI推出的自然语言处理工具ChatGPT,能够通过学习和理解人类语言进行对话,完成撰写邮件、视频脚本、文案、翻译、代码、论文等任务。据新华社报道,ChatGPT推出约两个月后,活跃用户即已达到1亿,成为历史上增长最快的消费者应用程序,迅速成为人们热议的话题。但目前ChatGPT带来的社会后果尚不能被人类完全预见,存在较高的安全风险。
ChatGPT的应用风险
尽管OpenAI在开发ChatGPT时极力避免输出带有算法歧视、偏见、侮辱、攻击、色情、暴力、血腥等导向的内容,但如果使用者有意通过设置命令诱导其输出不良、虚假或违法信息,最终可能突破研发者对其设置的道德伦理及法律底线。
其一,可能侵犯知识产权。因ChatGPT输出内容在不同用户之间可能不具有唯一性,故不同使用者可能基于相似的问题输入而收到人工智能相同的回应。若享有著作权的使用者以文本检查、翻译等目的将其文字作品输入ChatGPT中,而其他用户输入类似主题的写作需求,ChatGPT则可能通过信息网络将著作权人的作品进行非法传播,情节严重者,可能侵犯他人的著作权。
其二,可能存在数据泄露风险。当ChatGPT使用的语言数据集包含涉及个人隐私、国家安全、商业秘密等敏感信息时,如果该数据集没有得到适当的安全保护,那么攻击者就可能通过黑客攻击等手段获取这些敏感信息。
其三,可能存在非法利用ChatGPT的情形。不法分子可能利用ChatGPT快速编写邮件的能力,批量撰写“钓鱼”邮件,实施网络诈骗;或通过ChatGPT生成虚假的新闻信息、交易信息、投资建议等,对他人实施诈骗;或利用ChatGPT生成伪造的文档、签名、身份信息等,盗窃他人财物;或利用ChatGPT生成虚假的视频或音频,帮助不法分子伪造犯罪证据;或利用ChatGPT生成相应的攻击代码、恶意软件代码破坏网络秩序;或利用ChatGPT制造网络舆情、散播网络谣言、实施网络暴力等。
其四,在ChatGPT管理者责任方面,如果ChatGPT的提供者不履行法律、行政法规规定的信息网络安全管理义务,致使违法信息大量传播、用户信息泄露并造成严重后果等,经监管部门责令采取改正而拒不改正的,则可能构成拒不履行信息网络安全管理义务的行为。这不仅不利于绿色网络环境建设,还可能对个人及社会产生严重的负面影响,危害国家安全和社会稳定。
以法治规制生成式人工智能产品应用风险
党的二十大报告强调:“坚持安全第一、预防为主,建立大安全大应急框架,完善公共安全体系,推动公共安全治理模式向事前预防转型。”鉴于生成式人工智能技术的迅速发展及对人们工作生活的影响,要使其在正确的轨道上为人的生产生活服务,就必须发挥法治固根本、稳预期、利长远的保障作用,以法治规制生成式人工智能产品的应用风险。
明确ChatGPT等生成式人工智能产品的责任承担与分配原则。首先,坚持主体责任原则。生成式人工智能是一种技术工具,本身没有独立的主体责任,法律责任应由使用或控制生成式人工智能的人员承担。如生成式人工智能被用于制作淫秽物品,责任应由制作、传播和销售这类物品的人员承担。其次,坚持原始责任原则。生成式人工智能所生成的内容或行为由人类程序员编写的算法和代码所引起,因此,程序员应对其所编写的代码和算法的内容和行为承担一定法律责任。如果生成式人工智能被用于诈骗活动,应当以故意制造欺骗性算法和代码追究程序使用者的法律责任。再次,坚持协同责任原则。在某些情况下,生成式人工智能的使用可能涉及多个人员的协同行为。如果生成式人工智能被用于进行网络攻击,参与者之间存在相互协作和分工,行为人应当共同承担相应的法律责任。最后,坚持情节责任原则。应当综合考虑行为人违法犯罪的情节和后果。如果生成式人工智能所生成的内容或行为在情节、后果方面具有较轻的违法犯罪程度,责任相应较轻;如果情节、后果较为严重,责任则相应较重。
构建面向ChatGPT等生成式人工智能产品的风险防范体系。首先,对生成式人工智能产品的生产销售应用等进行全生命周期监管。近年来,随着人工智能产品不断迭代升级,类似ChatGPT的人工智能产品,从模型的建立、语料库的标注、模型训练、投放市场后的迭代进化直到系统退出使用,每个具体的环节都应当受到严格监管。其次,人工智能算法应当坚持社会主义主流价值观。任何组织或个人不得利用算法危害国家安全和社会公共利益、扰乱经济秩序和社会秩序、侵犯他人合法权益;不得利用深度合成服务制作、复制、发布、传播法律和行政法规禁止的信息;不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律和行政法规禁止的活动。再次,强化ChatGPT等生成式人工智能产品研发主体的合规义务。有关责任主体应当依法履行备案义务,并公示算法的基本原理、目的意图和主要运行机制;加强人工智能自检测模型构建,将人工智能生成系统设定在既有事实之上,保证有据可依,防止其生成编造的虚假内容;引入多来源比照分析模型,提高人工智能识别信息真实性的能力,在有据可依的基础上做到依据真实。
完善面向ChatGPT等生成式人工智能产品的相关立法。首先,以制度确保人工智能不会出现现实世界的歧视和偏见,维护社会公平;确保数据安全,保护商业秘密、个人隐私和国家安全。其次,依法建立识别人工智能系统生成文本的机制,保护知识产权,并鼓励行业协会、大型企业或第三方专业机构,积极推进人工智能违规信息审核产品的研发和推广。再次,现阶段,我国监管部门可以适用《中华人民共和国网络安全法》《网络信息内容生态治理规定》《互联网信息服务算法推荐管理规定》等法律法规应对短期内生成式人工智能产品可能引发的网络安全风险,加强对生成式人工智能产品相关产业的监管。最后,制定符合我国国情的人工智能技术应用领域的立法,以应对各种潜在的安全风险。
综上所述,对ChatGPT等生成式人工智能技术的治理而言,既要坚持包容开放,更要守住底线。生成式人工智能产品的法治应对并不在于限制生成式人工智能技术的发展和应用,而是在促进技术发展的同时,让技术更好地为人类服务,统筹规划有关人工智能的法律、行政法规、部门规章、技术标准,形成政府规范、行业自律、企业自治、社会监督的多元人工智能治理机制,建立“以人为本”的人工智能技术体系。
(作者单位:乌鲁木齐市中级人民法院、西北政法大学人权研究中心,西南政法大学)
【来源:民主与法制时报】
相关文章
猜你喜欢