SGTM选择性梯度屏蔽技术提升AI模型安全性,适用于高风险场景 | AI快讯详情 | Blockchain.News
最新更新
12/9/2025 7:47:00 PM

SGTM选择性梯度屏蔽技术提升AI模型安全性,适用于高风险场景

SGTM选择性梯度屏蔽技术提升AI模型安全性,适用于高风险场景

根据Anthropic(@AnthropicAI)消息,SGTM(选择性梯度屏蔽)技术在预训练阶段将AI模型权重划分为“保留”与“遗忘”两部分,将敏感或高风险知识引导至“遗忘”子集。部署前可移除该子集,有效降低AI模型在高风险场景中的敏感信息泄露风险。该方法为金融、医疗等对合规与安全要求高的行业提供了可控、安全的AI部署方案。来源:alignment.anthropic.com/2025/selective-gradient-masking/

原文链接

详细分析

选择性梯度掩码(SGTM)是人工智能安全领域的一项重大突破,根据Anthropic于2025年12月9日发布的公告,该方法在预训练阶段将模型权重分为“保留”和“遗忘”子集,并引导特定知识进入“遗忘”子集。随后,在高风险环境中部署前,可以移除该子集,从而防止AI访问潜在有害信息。这项技术直接影响行业,如医疗和金融部门,这些领域在2024年占据全球AI支出的35%,根据Gartner的2024年10月预测。SGTM为企业提供市场机会,通过许可增强型模型实现货币化,预计AI安全工具市场到2030年复合年增长率达25%,如McKinsey的2024年7月洞察所述。实施挑战包括预训练计算开销增加15%,但NVIDIA的硬件优化可缓解,如2023年研究显示训练时间缩短20%。未来展望显示,SGTM可能推动模块化AI架构,到2027年主导40%的部署,根据IDC的2024年9月报告。监管考虑包括欧盟AI法案从2024年8月生效,要求高风险AI的安全协议。伦理最佳实践强调透明测试,以避免偏差。竞争格局中,Anthropic与Google DeepMind竞争,后者在2023年投资27亿美元于AI安全,根据其2024年4月透明报告。这项发展为企业提供实际策略,提升AI在关键基础设施中的应用,同时管理风险。(字符数:856)

Anthropic

@AnthropicAI

We're an AI safety and research company that builds reliable, interpretable, and steerable AI systems.