探讨保证安全的AI系统在确保人工通用智能(AGI)的安全性和可靠性方面的潜力。
Anthropic宣布了一项新计划,旨在资助第三方评估以更好地评估AI能力和风险,以应对这一领域日益增长的需求。
NVIDIA的AI红队强调了保护LLM Tokenizer以保持应用程序完整性和防止被利用的风险及对策。
LLM red teaming涉及测试AI模型以识别漏洞并确保安全性。了解其实践、动机及其在AI开发中的重要性。
NVIDIA的NeMo Guardrails与Cleanlab的可信语言模型合作,旨在通过防止AI生成的反应中的幻想来增强AI的可靠性。
NVIDIA宣布其安全AI解决方案的正式发布,重点是通过增强的安全功能保护大语言模型。
黑客利用 AI 的问题解决本能,引入多模态推理模型中的新攻击面。了解这些漏洞是如何被针对的及潜在的防御措施。
AI的最新发展由于语义提示注入暴露出多模态模型的漏洞,促使从输入过滤转向输出级别的防御。
AI杀链框架概述了攻击者如何妥协AI系统,并提供了打破链条的策略,从而增强AI驱动应用的安全性。
探讨AI驱动的开发者工具如何创造新的安全风险。了解利用漏洞的方法及如何缓解这些风险。
OpenAI发布了一份GPT-5系统卡的附录,展示了在处理敏感对话方面的改进以及提高的安全基准。
Character.AI 宣布了一系列重大变革,以提高平台对18岁以下用户的安全性,包括移除开放式聊天功能以及引入年龄验证工具。
280x280 px High visibility placement