AI 快讯列表关于 大语言模型安全
| 时间 | 详情 | 
|---|---|
| 
                                        2025-09-16 16:19  | 
                            
                                 
                                    
                                        Meta发布LlamaFirewall:保护大模型免受越狱和目标劫持的AI安全工具包,支持7亿用户免费使用
                                    
                                     
                            根据DeepLearning.AI报道,Meta推出了LlamaFirewall,这是一套专为保护大语言模型(LLM)免受越狱、目标劫持及生成代码漏洞的安全工具包。该工具包现已对月活跃用户不超过7亿的项目免费开放,极大降低了企业部署AI安全防护的门槛。LlamaFirewall通过先进的检测与防御机制,有效应对LLM应用中的安全挑战,有助于提升企业级AI系统的合规性和安全性,为AI安全领域带来更多创新机会(来源:DeepLearning.AI,2025年9月16日)。  | 
                        
| 
                                        2025-06-16 16:37  | 
                            
                                 
                                    
                                        大语言模型提示注入攻击:AI应用安全风险与商业机遇分析
                                    
                                     
                            根据Andrej Karpathy在Twitter上的分析,针对大语言模型(LLM)的提示注入攻击正成为AI行业的重要安全威胁。Karpathy指出,恶意提示往往隐藏在网页数据或工具中,能够操控AI输出结果,这对部署AI解决方案的企业构成重大风险。目前,LLM领域缺乏类似杀毒软件的成熟防御机制,使自动化工作流、客户服务机器人及数据处理应用面临安全漏洞。随着行业对安全与合规需求的提升,开发专门针对LLM的安全工具和合规框架将带来巨大的商业机会(来源:Andrej Karpathy,Twitter,2025年6月16日)。  |