AI 快讯列表关于 企业AI安全
| 时间 | 详情 |
|---|---|
|
2025-12-09 19:47 |
Anthropic研究提出AI模型高风险能力隔离训练方法,助力网络安全与CBRN领域安全管控
根据@_igorshilov分享的Anthropic Fellows Program最新研究,团队开发了一种将AI模型高风险能力单独隔离在少量参数中的训练方法。这一技术使得企业能够针对化学、生物、放射和核(CBRN)或网络安全等敏感领域,精准移除或关闭高风险功能,同时保持模型主要性能不受影响。该方法为AI安全合规、企业风险控制提供了具体可行的解决方案,有助于提升大规模AI应用的安全性与可控性(来源:@_igorshilov,x.com/_igorshilov/status/1998158077032366082;@AnthropicAI,twitter.com/AnthropicAI/status/1998479619889218025)。 |
|
2025-11-12 14:16 |
OpenAI首席信息安全官公开信:应对纽约时报AI用户隐私问题,推动行业隐私合规新趋势
根据@OpenAI发布的官方声明,OpenAI首席信息安全官(CISO)针对纽约时报涉嫌侵犯用户隐私的问题发表公开信,强调公司在人工智能领域保护用户数据的承诺(来源:openai.com/index/fighting-nyt-user-privacy-invasion/)。信中详细介绍了OpenAI在法律和技术层面防止AI生成数据被滥用的措施,突显透明数据管理对企业与消费者信任的重要性。这一事件反映出AI行业对隐私标准不断提升的趋势,并为专注隐私保护的AI解决方案和合规技术供应商带来新商机。 |
|
2025-11-06 17:00 |
1Password与DeepLearning.AI联合推出2025年AI开发者安全工具,聚焦智能体工作流保护
据DeepLearning.AI报道,1Password与其合作推出面向AI时代的开发者安全工具,重点保护智能体工作流。这一合作为开发者提供了专门设计的高级安全解决方案,有效应对AI快速普及带来的数据和凭证安全风险。此次产品亮相AI Dev 25 x NYC大会,标志着AI开发流程安全集成进入新阶段,为安全SaaS供应商和企业AI团队带来市场机遇(来源:DeepLearning.AI,2025-11-06)。 |
|
2025-10-09 16:28 |
英国AI安全研究:少量恶意文档可威胁任意大模型,数据投毒风险激增
据Anthropic(@AnthropicAI)与英国AI安全研究院(@AISecurityInst)、艾伦·图灵研究院(@turinginst)联合发布的新研究显示,仅需少量恶意文档即可在任何规模的大语言模型(LLM)中制造安全漏洞。研究证实,数据投毒攻击比以往认为的更为实际和易实施,这对AI开发企业敲响警钟,强调训练数据管理和安全防护的重要性,同时为AI安全解决方案和模型审计服务创造了新的市场机会。(来源:Anthropic, https://twitter.com/AnthropicAI/status/1976323781938626905) |
|
2025-10-06 17:15 |
Anthropic发布Claude Sonnet 4.5后开源AI对齐自动化审计工具
据Anthropic(@AnthropicAI)官方消息,继Claude Sonnet 4.5发布后,公司已开源一款用于检测AI模型谄媚和欺骗行为的自动化对齐审计工具。该举措旨在提升大语言模型的透明度与安全性,推动社区共同参与AI对齐测试,对企业级AI应用的合规性与可信度具有重要意义(来源:AnthropicAI官方推特,2025年10月6日)。该工具有望加速负责任的AI开发进程,为寻求高可靠性和道德标准的企业用户提供支持。 |
|
2025-08-27 11:06 |
Anthropic报告:恶意行为者利用先进AI能力,推动AI安全防御产业升级
据Anthropic (@AnthropicAI) 披露,恶意行为者正迅速适应并利用人工智能的最新高级能力,用于自动化网络钓鱼、深度伪造生成和大规模信息操控等活动(来源:https://twitter.com/AnthropicAI/status/1960660072322764906)。报告强调,AI企业与行业需加强合作,推动威胁情报共享和AI安全标准化,以提升集体防御能力。随着AI安全需求激增,相关安全解决方案、风险评估及合规服务市场将迎来新一轮增长机遇。 |