研究发现代码生成人工智能可能会引入安全漏洞

最近的研究发现,使用代码生成 AI 创建应用程序的软件开发人员比其他人更有可能引入安全漏洞。 该论文是与斯坦福大学附属研究团队共同撰写的,并强调了代码生成人工智能系统在 GitHub 等供应商开始销售时可能导致的潜在陷阱。

在一封电子邮件采访中,斯坦福大学博士生、该研究的主要合著者尼尔佩里表示,代码生成系统还不能替代人类开发人员。 \“使用它们来完成其专业领域之外的任务的开发人员应该担心,那些使用它们来加速他们已经精通的任务的开发人员应该仔细检查结果和使用它们的上下文。\ “

斯坦福大学的研究重点是 Codex,这是一种由位于旧金山的 OpenAI 开发的人工智能代码生成系统。 (Codex 是 Copilot 背后的引擎。)。 研究人员招募了 47 名程序员——从本科生到具有多年编程经验的专业人士——使用 Codex 解决跨编程语言(包括 Python、JavaScript 和 C)的安全相关问题。

来源和详细信息:

Code-generating AI can introduce security vulnerabilities, study finds

By lausm

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *