新京报贝壳财经讯(记者姜樊)4月10日,中国支付清算协会在发布《关于支付行业从业人员谨慎使用ChatGPT等工具的倡议》中指出,支付行业从业人员在使用ChatGPT等工具时,要严格遵守国家及行业相关法律法规要求,不上传国家及金融行业涉密文件及数据、本公司非公开的材料及数据、客户资料、支付清算基础设施或系统的核心代码等。
支付清算协会认为,ChatGPT等工具引起各方广泛关注,已有部分企业员工使用ChatGPT等工具开展工作。但此类智能化工具已暴露出跨境数据泄露等风险。
博通咨询金融行业资深分析师王蓬博表示,ChatGPT是人工智能技术驱动的自然语言处理工具,需要对数据库不断更新,运行逻辑是通过大量的文本收集、数据训练回答客户问题。这意味着金融行业从业者若想使用ChatGPT则需要添加内容数据做训练,需要经过数据不断填充才能进化,那就一定会存在金融数据隐私及安全问题,即使用户是无意识的行为,也非常有可能造成个人信息和数据的泄露。
“使用ChatGPT确实存在数据被泄露的风险。”有银行金融科技业内人士告诉新京报贝壳财经记者,金融行业工作者在使用ChatGPT等工具过程中,实际上也是帮助对方训练模型。同时,这些工具并没有在中国设立分支机构,中国金融的敏感信息就可能通过这些工具被泄露到海外,这对中国金融安全亦可能造成不利影响。
自2016年起,我国陆续出台《网络安全法》《数据安全法》等,防范数据风险问题。去年9月,我国还施行了《数据出境安全评估办法》,被业界看作是保障国家安全和数据安全的有效手段。
王蓬博认为,金融行业是严监管的行业,对于个人信息和相关的商业数据特别敏感。金融机构要想使用类似的产品,起码应先进行可控范围的评估,做好预防措施以后再进行应用。他预计,在数据安全相关法律法规的政策框架范围内,未来有可能将出台相关补充监管政策加以规范。
支付清算协会指出,支付行业从业人员要遵守所在地区的网络使用规定,正确认识ChatGPT等工具的机遇和风险,全面评估使用ChatGPT等工具处理工作内容的风险,依法合规使用ChatGPT等工具。
此外,支付清算协会还要求,会员单位要进一步健全信息安全内控管理制度,开展有针对性的数据风险防控工作,加强宣传和引导,提升员工的风险防范和数据保护意识,切实维护国家金融及支付清算行业安全。
编辑 王雨晨
校对 李铭
相关文章
猜你喜欢