AI 快讯列表关于 大模型漏洞
| 时间 | 详情 | 
|---|---|
| 
                                        2025-10-09 16:28  | 
                            
                                 
                                    
                                        英国AI安全研究:少量恶意文档可威胁任意大模型,数据投毒风险激增
                                    
                                     
                            据Anthropic(@AnthropicAI)与英国AI安全研究院(@AISecurityInst)、艾伦·图灵研究院(@turinginst)联合发布的新研究显示,仅需少量恶意文档即可在任何规模的大语言模型(LLM)中制造安全漏洞。研究证实,数据投毒攻击比以往认为的更为实际和易实施,这对AI开发企业敲响警钟,强调训练数据管理和安全防护的重要性,同时为AI安全解决方案和模型审计服务创造了新的市场机会。(来源:Anthropic, https://twitter.com/AnthropicAI/status/1976323781938626905)  |