界面新闻记者 | 姜菁玲
界面新闻编辑 |
随着ChatGPT在各行业的快速落地,人工智能技术带来的安全风险正在引发新的担忧。网络安全研究机构Check Point Research对地下黑客社区活动的分析显示,网络犯罪分子当前已经在使用ChatGPT开发恶意工具,撰写病毒脚本或者钓鱼邮件,从而实施网络攻击。
近日,奇安信集团董事长齐向东在接受界面新闻采访时也提到,如今ChatGPT正在带来三方面的网络安全挑战:
首先,降低了网络犯罪门槛,加剧了数据遭遇外部攻击的风险。过去,高水平的黑客只是一小部分,而ChatGPT既能挖漏洞、写代码,还能教人怎么做网络攻击者。借助ChatGPT,初级网络攻击者可以快速达到中级,甚至高级水平。恶意攻击代码和钓鱼攻击变得“唾手可得”,加大了数据安全风险。
其次,增加了数据泄露途径,会让数据在使用中“被动”泄露。数据安全供应商Cyberhaven近期发布的一份研究显示,在2023年初的一周内,每十万名员工中机密业务数据被输入ChatGPT199次。用户可能没有意识到,ChatGPT的公开版本并没有将他们的输入保密,而是使用它来学习和响应未来的请求。
最后,深度伪造技术让信息识别成为难题。利用人工智能技术,犯罪分子不仅可以编写出更贴近受害人的工作环境的钓鱼邮件,人工智能的重要技术分支深度合成可能也会被犯罪分子用来伪造声音、图像、视频和其他证据等。
“如果人工智能变成一个像水、电、煤气一样的基础设施,那么该基础设施一旦出现问题,后果可想而知。”齐向东说。
由于GPT带来的安全性风险仍然充满未知,许多公司对GPT相关的技术表现出相当保守的态度。美国运营商Verizon以高管对ChatGPT安全风险的担忧为由,阻止其员工在工作时访问该程序。摩根大通、亚马逊、美国银行、花旗集团、德意志银行、高盛和富国银行也纷纷效仿限制员工使用ChatGPT。
齐向东表示,对于GPT带来的安全性挑战,企业需要提高数据使用敏感度,“给GPT喂数据时,需要对数据进行一些处理,或寻求专业的安全公司,避免在GPT发展过程中出现比较重大的数据泄露事件。”
对于网络安全公司本身而言,齐向东称,人工智能技术将会提升网络安全防御上的效率,在威胁检测、漏洞挖掘、安全软件开发等方面会更高效。比如在数据全链条安全检测上,人工智能可以大大提高监督的效率,让以往不可能做到的事情成为可能。
据他透露,目前奇安信正在训练专有的类ChatGPT安全大模型,并且在人才培养上进行了布局,通过“人 机器”的配合来应对未来的安全挑战。
相关文章
猜你喜欢