Place your ads here email us at info@blockchain.news
CVE 分配:为何 AI 模型应被排除 - Blockchain.News

CVE 分配:为何 AI 模型应被排除

realtime news Sep 26, 2025 20:32

根据 NVIDIA 的见解,探讨为何通用漏洞披露(CVE)应该专注于框架和应用程序,而非 AI 模型。

CVE 分配:为何 AI 模型应被排除

通用漏洞披露(CVE)系统是一个全球公认的标准,用于识别软件中的安全缺陷。关于其应用于 AI 模型的有效性,目前正受到审查。根据 NVIDIA 的意见,CVE 系统应主要关注框架和应用程序,而非单个 AI 模型。

理解 CVE 系统

CVE 系统由 MITRE 维护,CISA 支持,为漏洞分配唯一标识符和描述,以促进开发者、供应商和安全专家之间的清晰沟通。然而,随着 AI 模型成为企业系统的重要组成部分,问题随之而来:CVE 是否也应涵盖 AI 模型?

AI 模型及其独特挑战

AI 模型引入了诸如对抗性攻击、数据投毒和数据泄漏等故障模式。这些现象类似于漏洞,但与 CVE 的定义不符,后者专注于违反机密性、完整性或可用性保障的弱点。NVIDIA 认为,漏洞通常存在于使用这些模型的框架和应用程序中,而不是模型本身。

拟议 AI 模型 CVE 的类别

针对 AI 模型的拟议 CVE 通常分为三类:

  1. 应用或框架漏洞:模型包裹或服务软件中的问题,例如不安全的会话管理。
  2. 供应链问题:如被篡改的权重或被污染的数据集,这些风险更适合通过供应链安全工具管理。
  3. 模型的统计行为:如数据记忆或偏见,这些在 CVE 框架下不构成漏洞。

AI 模型与 CVE 标准

AI 模型由于其概率性特征,表现出可能被误认为漏洞的行为。然而,这些往往是被风险应用场景利用的典型推理结果。对 CVE 适用的要求是模型的预期功能失败并导致安全漏洞,而这情况很少发生。

框架和应用程序的角色

通常漏洞产生于围绕模型的软硬件环境,而非模型本身。例如,对抗性攻击通过操控输入产生误分类,这是应用无法检测此类查询的失败,而非模型的问题。同样,诸如数据泄露的问题是过拟合导致的,需要系统级的缓解措施。

何时 CVE 可能适用于 AI 模型

一种可能相关的例外情况是,当被污染的训练数据导致了后门模型。在这种情况下,模型在训练过程中被破坏。然而,即便是这些情境,可能也更适合通过供应链完整性措施进行解决。

结论

最终,NVIDIA 倡导将 CVE 应用于框架和应用程序,在这些情况下,它们可以推动有意义的修复。在 AI 安全中,增强供应链保障、访问控制和监控是关键,而不是将模型中的每一个统计异常都标记为漏洞。

有关更多洞见,您可以访问NVIDIA 的博客阅读原始来源。

Image source: Shutterstock