f
CYBER SECURITY
约瑟夫·格雷戈里·马奥尼 华东师范大学政治与国际关系学院教授
科幻小说中,我们早已展望了蓬勃发展的人工智能带来的无限可能。虽然人工智能的发展还没有达到、也许永远不会达到在技术上实现乌托邦或反乌托邦的场景,但我们应该清楚认识到,新时代已经来临。
正如某些评估指出,我们在大约同一时期达到了几个关键转折点。中国作为一个主要大国的复兴和崛起,美国主导的冷战地缘战略范式的回归(如对中国技术发展的打压),美元和美国在全球金融体系中霸权地位的衰落,气候变化和人工智能。转折点是指以下情况在同时发生:资本流动在投资中的重大变化与技术进步、气候(如极端天气事件和相关成本增加)以及地缘政治的重大变化相关联。将人工智能的发展与这些同时发生的事件联系起来很重要,因为它展现出了当下日益竞争的环境,在这种竞争下,国际合作在人工智能监管方面非常难以推进,比在难以达成有效合作的气候变化和核扩散方面更加困难。这意味着,世界已经越来越不稳定,而生成性人工智能的快速引入和普及将使其更加不稳定。
对于人工智能、尤其是生成性人工智能的加速发展,如同以上各方面的发展情况一样,主要以以下三种非常方式进行评估。
1. 人工智能代表着新的经济增长点。它对于保持技术创新和竞争的前沿地位是至关重要的。它可以帮助解决我们许多问题,并且不应受到过度限制。技术创新往往带有风险,但它的回报也使人类走出了洞穴,进入了太空,挽救和充实的生命比其毁灭的要更多。在这一点上,我们应该注意到,许多马克思主义者和资本家普遍持这样的观点。正如我们在欧洲联盟最近的游说中所看到的,这也是ChatGPT的开发者OpenAI的立场。
2.人工智能是一项新技术,将会产生巨大的颠覆性影响。虽然它可能不会引发人机之间谁是主宰的战争,也不会出现恶意超级智能,但它已经开始消灭就业机会。根据《挑战者报告》,仅在2023年5月,人工智能就消除了美国近4000个工作岗位,而高盛预测人工智能最终可能取代全球3亿个全日制工作岗位,影响约五分之一的就业。同时,像贾拉斯·维克托·格罗夫(Jairus Victor Grove)这样的理论家所担心的,文化偏见和其他人类缺陷将在人工智能本身中变得常规化,在最糟糕的情况下,会加速在竞争情境中进行“看似理性”的破坏性决策,包括国家之间的竞争。此外,我们已经对深度伪造、虚假信息和有害影响活动等问题非常熟悉。因此,人工智能已经有很大机会增加人类面临的生存风险,特别是在我们面临诸多其他挑战的时候。这一派主张对人工智能进行非常严格的监管,甚至呼吁停止使用人工智能技术。
3. 人工智能有利有弊,不过踟蹰不前的徘徊点已经过去。现在我们需要学会如何快速有效地与之共存,并建立有效的治理机制。
据此,我认为中国在人工智能监管方面有以下三大优势。
1. 与许多西方国家不同,中国在法律和法规方面都是从实际情况出发,而不是从理想化的情况出发。重点是在具体条件下实际改善情况,而不是从理论上构想在理想条件下应该如何更好。
2. 中国在技术监管方面展示出了强大的能力,同时也成为世界领先的技术社会之一。中国在发展自己的国际竞争力强的科技公司的同时,成功避免了成为其他国家的数据园地,并且随着时间的推移,也在符合国家利益时,熟练地监管这些公司的国内业务。在这些方面,没有其他国家能够像中国一样取得如此大的成功。
3. 近年来,中国的政治体制在推进强有力的治理和监管方面表现出诸多优势。因此,中国将需要扮演领导角色,向世界展示正确的前进方向。简而言之,中国需要成为科技创新者,同样重要的是,它需要成为科技监管的创新者。
有人认为,人工智能已经被各国政府广泛用于数字治理和军事事务。此外,这项技术主要是从私营部门发展起来的,已经在我们的日常生活中得到广泛应用。潘多拉的盒子已经打开,而且已经无处不在。这与核能或高级基因研究不同,后者可以相对直接地进行监管。更有趣的是,我们甚至可以询问生成型人工智能如何进行监管。
鉴于此,让我们转向OpenAI的产品ChatGPT。几个月前,我在华东师范大学的学生和同事们对这个新的聊天机器人感到非常兴奋,有一位著名教授告诉我,它在写论文方面非常有用,尤其是在进行文献综述和翻译方面。与此同时,我的马克思主义研讨班的学生们赞扬ChatGPT在提升或产生创造性内容方面的能力,改进了他们的工作。然而,我关注的问题集中在于ChatGPT是否能产生可靠的信息,它是否能够及时提供信息,因为它有两年的滞后,基于线性逻辑的操作系统是否能够辩证地“思考”,商业模式是否有隐瞒的成分,对机器的依赖是否会减弱人类的批判性意识。我还担心版权和抄袭问题,担心我们可能很快就会陷入一种人工智能去阅读和写作的世界,而我们只是假装在这么做。
在测试ChatGPT时,我发现它有时会犯错,实际上没有思考的能力,它的创造力还相对有限,但似乎并没有故意说谎或引导错误的倾向。我问ChatGPT,如果生成性人工智能不受监管,会对人类构成威胁吗?ChatGPT的回答是:“未经监管的生成式人工智能如果被滥用或落入错误的人手中,可能对人类构成风险。如果缺乏适当的规定、准则或监督,就更有可能出现意想不到的后果和潜在的危害。生成式人工智能系统具有生成逼真内容(如文本、图像或视频)的能力。如果这些技术被用于恶意目的,例如制作深度伪造或传播虚假信息,可能对个人、组织和整个社会造成严重影响。此外,未经监管的生成式人工智能可能引发与隐私、安全以及人工智能系统操纵或欺骗人们的能力相关的担忧。建立保障措施、标准和法律框架以解决这些问题非常重要,以确保生成式人工智能的负责认式发展和负责使用,从而保护社会福祉。监管和监督在缓解与人工智能技术相关的风险、鼓励道德实践以及促进对生成式人工智能系统开发和部署的信任方面起着至关重要的作用。”
再次,我发现ChatGPT的诚实令人耳目一新,这个诚实也是令人意外的,特别是考虑到OpenAI一直在游说要求近乎零监管的情况下。于是我又问“生成式人工智能改如何监管呢?”
ChatGPT给出的答案如下:
对生成型人工智能进行监管需要考虑到技术、伦理和社会等多个方面。以下是一些监管生成型人工智能的关键考虑因素:
1. 透明度和问责制:监管机构可以鼓励或要求人工智能开发者对生成型人工智能系统的能力、限制和潜在偏见进行透明度披露。开发者应对系统生成的输出负有责任,并透明地解释如何应对潜在风险。
2. 伦理准则:制定伦理准则可以确保负责任使用生成型人工智能。这些准则可能包括公平性、隐私、安全和避免伤害等原则。鼓励遵守伦理标准可以促进与社会价值观相符的人工智能系统的开发和应用。
3. 数据治理:监管机构可以对数据收集、使用和存储实施监管规定。明确的指南涉及获得同意、保护个人信息和解决数据偏见等问题,对于维护信任和保护隐私至关重要。
4. 风险评估和测试:监管机构可以要求对生成型人工智能系统进行严格的风险评估和测试程序。其中包括评估潜在偏见、验证生成的输出的准确性和可靠性,并评估系统对恶意使用的脆弱性。
5. 用户保护和教育:政策应着重保护用户免受生成型人工智能可能造成的伤害。教育用户了解这些系统的能力和风险,可以帮助他们做出明智决策,并谨慎相信生成的内容。
6. 国际合作:考虑到人工智能的全球化发展和应用,国际合作至关重要。各国之间的合作可以促进最佳实践的共享、监管规定的协调,并解决与生成型人工智能相关的跨境挑战。
最后,对生成式人工智能进行监管需要采取一种平衡的方法,既促进创新,又确保以符合社会价值观、保障安全、降低潜在风险的方式开发和使用技术。
幸运的是或不幸的是,由于ChatGPT的知识库截止日期是2021年末,因此我们无法询问当前生成式人工智能的监管情况。在过去的两年里,这方面的发展已经非常迅速。不过,我们可以考虑以下几种方法来监管人工智能,包括生成式人工智能:
1. 使用现有的监管框架:生成型人工智能的某些方面,如数据隐私、知识产权和消费者保护,可能受到现有监管法规的约束,例如数据保护法律、版权法和广告准则。
2. 使用行业特定的法规:某些行业,如医疗保健和金融,有针对人工智能系统(包括生成型人工智能)使用的特定法规,以确保安全性和符合行业标准。
3.加强伦理指南和框架:政府和组织已经制定了关于人工智能的伦理指南和框架,这些可以间接影响生成型人工智能的开发和部署。例如,欧洲委员会的《值得信赖的人工智能伦理指南》以及类似于“合作伙伴计划”和美国电气和电子工程师协会所提出的原则。
4. 鼓励行业自律:一些行业已经采取了主动行动,建立了自愿准则或行为准则,以负责任地开发和使用人工智能,包括生成型人工智能。这些自律努力旨在确保伦理实践,并建立公众信任。虽然OpenAI似乎抵制监管,但谷歌宣布了一项机器“去学习”比赛,旨在从AI系统中删除敏感数据,使其符合全球数据监管标准。
当考虑新的监管措施时,决策者还应考虑以下内容:
1. 透明度要求:法规可以要求开发者和组织将有关生成型人工智能系统使用透明化。这可能涉及披露使用人工智能的情况,解释系统的能力和限制,并提供有关数据来源和训练方法的信息。
2. 验证和认证:政府或独立机构可以设立验证和认证机制,评估生成型人工智能系统的安全性、可靠性和伦理考虑。这可能涉及对系统的性能、潜在偏见以及遵守既定标准的评估。
3. 数据治理和隐私保护:法规可以解决数据收集、存储和使用问题,以保护个人隐私并防止滥用。这可能包括关于获得知情同意、数据匿名化和安全存储实践的指南。
4. 知识产权:法规可以解决与生成型人工智能生成内容相关的知识产权问题。这可能涉及对所有权权利、归属要求以及使用生成型人工智能创建受版权或专有材料的潜在限制的澄清。
5. 禁止恶意使用:法规可以明确禁止将生成型人工智能用于恶意目的,例如制作深度伪造、传播虚假信息或进行网络攻击。这将涉及建立法律框架以遏制和惩罚此类活动。
6. 用户保护和意识提高:法规可以着重保护用户免受生成型人工智能可能带来的潜在伤害。这可能包括对人工智能生成内容的披露要求,关于使用生成型人工智能的警示或免责声明,以及开展教育活动提高人们对潜在风险和影响的认识。
7. 国际合作:考虑到生成型人工智能的全球性质,国际合作和监管协调非常重要。国家之间的合作可以帮助应对跨国挑战,分享最佳实践,并制定负责任的生成型人工智能开发和使用的共同标准。
非常重要的一点是,特定的监管方法将取决于不同司法管辖区的法律、社会和文化背景。制定监管规定应当涉及政府、研究人员、行业相关方和公众之间的合作,以确保制定全面和平衡的框架。此外,尽管看起来可能有些奇怪,但也许还可以从生成型人工智能本身获得关键洞见。事实上,这可能是我们首先可以直接询问应如何对其进行监管的新技术,包括要求它起草和审查可能的监管框架。
我对国际合作在未来能否充分发挥作用不太有信心,但我相信中国要找到一条负责任的前进道路,并以符合国家振兴目标的方式实现。现在是行动的时刻,中国可能需要在人工智能治理方面走在世界其他国家的前面,向其他人指引前进的道路,特别是其在全球南方的欠发达伙伴国家和地区,他们有再次被殖民的风险。我希望这次会议及类似的会议能够为实现这样的结果作出贡献。
往期精彩回顾
演讲直击|黄开胜:生成式人工智能技术司法领域应用观察
演讲直击|周可璋:人工智能冲击下建筑领域面临的法律问题和思考
演讲直击|雍文渊:认知大模型技术进展与应用实践
演讲直击|李臣:生成式人工智能的合规挑战与应对
演讲直击|陆春玮:人工智能背景下仲裁的俱进与挑战
演讲直击|朱萌:大模型时代的人工智能伦理风险与应对
上海市法学会官网
相关文章
猜你喜欢