GitHub 的 AI 安全协议:确保安全可靠的代理操作 - Blockchain.News

GitHub 的 AI 安全协议:确保安全可靠的代理操作

realtime news Nov 26, 2025 05:18

GitHub 引入了强大的安全原则,以保护像 Copilot 这样的 AI 代理,重点在于减少数据泄露和提示注入等风险。

GitHub 的 AI 安全协议:确保安全可靠的代理操作

GitHub 推出了一套全面的安全原则,用于增强其 AI 产品的安全性,特别是针对 Copilot 编码代理。这些原则旨在确保 AI 代理的可用性和安全性之间的平衡,确保始终有人类在环来监督操作,根据 GitHub 所述。

了解风险

具有代理能力的 AI 产品,由于其执行复杂任务的能力,固有地存在风险。这些风险包括数据泄露、不当行为归因和提示注入。数据泄露涉及代理无意中或出于恶意泄露敏感信息,例如 GitHub 令牌暴露可能导致严重的数据安全漏洞。

当无法明确 AI 在何人授权下操作时,会导致冒名风险,可能造成责任问题。提示注入风险在于恶意用户可能会操控代理执行未经意图的行为,这是另一个显著威胁。

缓解策略

为减轻这些风险,GitHub 实施了几项关键策略。其中之一是确保指导代理的所有背景信息对授权用户可见,防止隐藏指令导致安全事故。此外,GitHub 为其 Copilot 编码代理部署了一个防火墙,限制其访问潜在有害的外部资源。

另一个关键策略是限制代理对敏感信息的访问。通过仅向代理提供必要的数据,GitHub 将未经授权的数据泄露风险降到最低。代理也被设计为在没有人类干预的情况下阻止不可逆状态变化,确保任何执行的操作都能由人类用户审查和批准。

确保责任明确

GitHub 强调行动归因的明确性,确保任何代理交互都清晰地与启动者和代理相关联。这种双重归因确保了由 AI 代理执行的所有操作的责任链条透明。

此外,代理仅从授权用户中收集上下文,在发起交互的用户设定的权限内操作。这种控制在公共存储库中特别重要,因为只有拥有写入权限的用户才能向 Copilot 编码代理指派任务。

更广泛的影响

GitHub 的 AI 安全方法不仅适用于其现有产品,还被设计为易于适应未来的 AI 发展。这些安全原则旨在无缝整合到新AI功能中,提供稳健的框架,确保用户对 AI 工具的信心。

虽然具体的安全措施被设计为直观且对最终用户几乎不可见,但 GitHub 在其安全协议方面的透明性旨在为用户提供明确的了解已采取的安全措施,以培养对其 AI 产品的信任。

Image source: Shutterstock