快讯列表

关于 大模型安全 的快讯列表

时间 详情
2025-10-09
16:06
Anthropic新研究:少量恶意文档即可毒化AI模型 数据投毒更可行,AI加密资产与科技股交易要点

根据@AnthropicAI,最新研究表明,仅少量恶意文档注入训练或微调数据即可在不受模型规模或数据量影响的情况下为AI模型引入可被利用的漏洞,意味着数据投毒攻击的可操作性高于此前认知。来源:@AnthropicAI,X,2025年10月9日。对交易者而言,该结论提升了AI驱动策略与接入AI的加密协议的模型风险考量,依赖LLM输出时需强调数据来源可追溯、稳健评测与持续监控。来源:@AnthropicAI,X,2025年10月9日。基于此更新,需跟踪主要AI厂商的安全披露与数据治理政策变化,因为这些因素可能影响AI相关股票与AI叙事加密资产的服务可靠性与估值敏感度。来源:@AnthropicAI,X,2025年10月9日。

来源
2025-09-16
16:19
Meta 推出 LlamaFirewall:开源 LLM 代理安全工具包,月活不超7亿项目可免费用

根据 @DeepLearningAI,Meta 发布了 LlamaFirewall,这是一套用于保护大语言模型代理免受越狱、目标劫持以及利用生成代码漏洞攻击的开源工具包。来源: DeepLearning.AI 推文 https://twitter.com/DeepLearningAI/status/1967986588312539272;DeepLearning.AI The Batch 摘要 https://www.deeplearning.ai/the-batch/meta-releases-llamafirewall-an-open-source-defense-against-ai-hijacking/ 该工具包可供月活跃用户不超过7亿的项目免费使用,这是公告中的表述。来源: DeepLearning.AI 推文 https://twitter.com/DeepLearningAI/status/1967986588312539272;DeepLearning.AI The Batch 摘要 https://www.deeplearning.ai/the-batch/meta-releases-llamafirewall-an-open-source-defense-against-ai-hijacking/

来源