本报记者李乔宇
8月25日,奇安信集团在京发布了Q-GPT(奇安信大模型)安全机器人和大模型卫士。据介绍,Q-GPT安全机器人是基于奇安信大模型的“虚拟安全专家”,可以全天候工作,一台机器人等于60多位安全专家,可产生约2000万元的运营效益,能够极大地提升了生产力。大模型卫士集安全风险发现、大模型访问控制、数据泄露管控、违法违规行为溯源、大模型应用分析等为一体,帮助企业更安全地向大模型要生产力。
在会上,京东方集团和吉利汽车集团等客户现场签约,成为国内首批Q-GPT安全机器人和安全大模型用户。同时,大模型卫士现场获得了国内多家客户的签约意向。
破解专家紧缺难题
“从我们开始训练自己的GPT安全大模型开始,就制定了明确的目标:一定要让客户在使用奇安信的GPT产品时就像是雇佣了一个高级安全专家队伍,把产品领回去就能变成自己的力量。所以这个产品的形态一定不会是一个问答对话框,而是一个聪明的机器人,它能帮助或者替代安全专家执行复杂任务,能全天候工作,成为真正的生产力。”奇安信集团董事长齐向东表示。
在网络安全上,政企机构长期面临着三大困扰,分别是告警疲劳、专家稀缺、效率瓶颈。首先,攻击者手法层出不穷,攻击频次日益密集,企业每天都会产生海量告警,有限的安全专家无暇应对,通常只有1%的告警被研判,99%的告警被无奈放弃,形成告警疲劳;其次,安全本来就是一个知识、技术和实战经验要求很高的行业,高水平人才难以快速培养,企业面临着专家少的难题,据教育部统计,到2027年,我国网络安全人员缺口将达到327万;第三,人本身受制于精力、情绪、状态等多方面因素,不可能全天候工作,形成效率瓶颈,也就是加人不划算、不加人干不完。
在奇安信安全机器人处理告警这个安全运营场景下,一个3000人的数字化企业每天平均大约有10亿条日志,产生约10万条告警。按照一个安全分析专家一天最多能处理480条的效率计算,需要200个专家同时处理。如果按照每人每年30万元的成本计算,需要6000多万元。同等需求下,三台奇安信机器人就能够满足上述数字化企业每日处理10万条告警的诉求。以此计算,每台机器人每日工作量相当于60位专家的工作量,在成本上,每年可以产生约2000万元的运营效益。
在现场演示中,奇安信安全机器人展现了强大的智能分析和自动研判能力。某客户安全分析平台收到了海量告警,但安全专家的极限,只能对其中1%的重要告警进行分析研判,99%的告警被无奈抛弃,导致大量隐蔽攻击被忽视掉,增加了系统安全风险。通过安全机器人,可以实时、自动为客户研判“全部告警”,将需要响应处置的告警过滤出来,解决日常分析安全工程师的“告警疲劳”“研判疲劳”问题,避免“漏报”和“误报”。
京东方集团和吉利汽车集团在发布会现场签约,成为国内安全机器人的第一批用户。
解决大模型数据泄露难题迫在眉睫
“ChatGPT等大模型,会泄露企业的商业秘密,已经引起广泛关注。据统计,在使用ChatGPT的员工中大多数会泄露数据,其中11%的数据为企业敏感数据。而越来越多的办公产品如Microsoft 365 Copilot、WPSAI、通义听悟等都集成了大模型,就意味着将有更多的员工使用大模型,这会加剧企业敏感数据的泄露风险。解决大模型数据泄露难题,迫在眉睫。”奇安信集团副总裁张卓表示。
此次发布会,奇安信正式推出业内首款大模型卫士产品,解决广大企业客户对于大模型“想用不敢用”的顾虑,让他们能够用好大模型提升核心竞争力。
张卓认为,数据泄露带来的直接结果,就是企业核心竞争力的逐步丧失。但作为一家现代企业,如果不积极使用GPT改进自己的技术、产品和市场推广,就会有落伍的风险。
针对这些情形,奇安信发布了大模型卫士,为企业在使用大模型过程中提供四重防护:第一是防止数据投喂造成的敏感数据泄露。包括建立内部技术监管手段,防止员工向大模型投喂敏感数据。第二是建立身份识别与溯源机制。把身份与数据关联,在发生数据泄露风险时,找到数据泄露的主体。第三是避免触发数据跨境安全监管红线。有效监控对ChatGPT等国外大模型的数据投喂行为,避免数据跨境安全违法的发生。第四是对企业内部大模型应用状况全面分析。对员工的大模型应用状况进行分析,快速、有效的利用大模型技术重构企业经营生产活动流程,调整资源配置。
“针对汹涌而来的大模型浪潮,促进发展和防范风险需要两者并重。”张卓表示,大模型卫士能帮助企业发现大模型使用过程中的安全风险、实时管控大模型访问和数据投喂过程、提升企业的大模型应用能力、溯源违法违规行为,最终让企业更放心地使用大模型技术,更安全地提升生产力,为大模型健康发展保驾护航。
(编辑 张芗逸)
相关文章
猜你喜欢