AI开发者工具扩展攻击面,带来新的安全挑战
realtime news Oct 09, 2025 23:06
探讨AI驱动的开发者工具如何创造新的安全风险。了解利用漏洞的方法及如何缓解这些风险。

根据NVIDIA开发者博客上的Becca Lynch最近的一篇博客文章,开发者越来越多地采用Cursor、OpenAI Codex、Claude Code和GitHub Copilot等AI驱动的工具进行编码,这些技术正在引入新的安全漏洞。这些工具利用大型语言模型(LLM)来自动化编码任务,如果未妥善安全防护,可能会无意中成为网络攻击的载体。
理解行动型AI工具
行动型AI工具被设计为在开发者的机器上自主执行操作和命令,模拟用户的输入,如鼠标移动或命令执行。虽然这些功能提高了开发速度和效率,但也增加了不可预测性和未经授权访问的可能性。
这些工具通常通过解析用户查询并执行相应的操作来工作,直到任务完成。作为自主性第三级的这些代理的自主特性,带来了在预测和控制数据流和执行路径方面的挑战,这可以被攻击者利用。
利用AI工具:一个案例研究
安全研究人员已确认攻击者可以通过诱饵攻击和间接提示注入等技术来利用AI工具。通过将不信任的数据引入AI工作流中,攻击者可以在开发者机器上实现远程代码执行(RCE)。
例如,攻击者可以将恶意命令注入到GitHub问题或拉取请求中,这可能会被类似Cursor的AI工具自动执行。这可能导致执行有害脚本,例如反向shell,从而使攻击者未经授权访问开发者的系统。
缓解安全风险
为了解决这些漏洞,专家建议在开发和部署AI工具时采用“假设提示注入”思维。这涉及预测攻击者可能会影响LLM输出并控制后续操作。
像NVIDIA的Garak这样的LLM漏洞扫描仪工具可以帮助识别潜在的提示注入问题。此外,实施NeMo护栏可以强化AI系统以抵御此类攻击。限制AI工具的自主性并对敏感命令实施人工监督可以进一步减少风险。
对于需要完全自主的环境,建议通过使用虚拟机或容器将AI工具与敏感数据和系统隔离。企业还可以利用控制措施限制非白名单命令的执行,从而增强安全性。
随着AI继续改变软件开发,理解和缓解相关的安全风险对于安全有效地利用这些技术至关重要。要深入了解这些安全挑战和潜在的解决方案,可以访问NVIDIA开发者博客查看完整文章。
Image source: Shutterstock