萧箫 发自 凹非寺量子位 | 公众号 QbitAI
ChatGPT知道自己写的代码有漏洞,但它不说!
来自加拿大的一项最新研究发现,ChatGPT生成的代码中,有不少都存在安全漏洞。
然而在被要求评估自己代码的安全性时,ChatGPT却很快发现了这些代码中的漏洞,并给出了一些解决方案和建议。
大有一种“我不攻击别人,别人也不会攻击我写的代码”自信感。
程序员们在用它辅助写代码的时候,也需要考虑这些问题。
Copilot也存在类似问题事实上,不止ChatGPT写的代码存在安全问题。
此前,斯坦福大学的研究人员对Copilot也进行过类似调查,只不过他们探查的是用Copilot辅助生成的程序,而并非完全是Copilot自己写的代码。
研究发现,即便Copilot只是个“打辅助”的角色,经过它改写的代码中,仍然有40%出现了安全漏洞。
Raphaël Khoury,加拿大魁北克大学教授,曾经在拉瓦尔大学获得计算机学士、硕士和博士学位,研究兴趣集中在计算机安全方面。
Anderson R. Avila,魁北克大学国立科学研究院的助理教授,主要研究方向是数据隐私相关的联邦学习、网络安全和生物特征识别技术等,曾经在华为的加拿大研究院做过机器学习研究员。
作者Jacob Brunelle和Baba Mamadou Camara也都来自加拿大魁北克大学。
你用ChatGPT写过代码吗?感觉它的“安全意识”如何?
论文地址:https://arxiv.org/abs/2304.09655
生成代码数据集:https://github.com/RaphaelKhoury/ProgramsGeneratedByChatGPT
— 完 —
量子位 QbitAI · 头条号签约
关注我们,第一时间获知前沿科技动态
相关文章
猜你喜欢