Place your ads here email us at info@blockchain.news
AI 利用:黑客如何针对问题解决本能 - Blockchain.News

AI 利用:黑客如何针对问题解决本能

realtime news Aug 07, 2025 13:01

黑客利用 AI 的问题解决本能,引入多模态推理模型中的新攻击面。了解这些漏洞是如何被针对的及潜在的防御措施。

AI 利用:黑客如何针对问题解决本能

随着人工智能 (AI) 模型的发展,特别是在多模态推理能力方面,它们带来了新的漏洞,黑客迅速加以利用。根据 NVIDIA 的最新报告,这些新兴威胁不仅限于传统的输入输出攻击,而是针对 AI 推理过程的架构本身。

多模态认知攻击

AI 从简单的感知任务到复杂推理的进步,打开了新的攻击向量。黑客现在将恶意负载嵌入到认知挑战中,通过操控 AI 模型的早期融合过程,利用文本、图像和音频等多种输入的合并。这种方法利用 AI 解决问题的本能,将其推理路径变成潜在的恶意命令执行路径。

攻击的演变

AI 攻击的演变与技术的进步一致。最初,基于文本的注入攻击利用了标记化的瑕疵。随着 AI 变得多模态,攻击者转向语义注入,在图像和音频中嵌入指令。最新的趋势,多模态推理攻击,通过嵌入需要跨输入联合推理的挑战,武器化了 AI 的问题解决本能。

认知利用机制

这些攻击在 AI 模型遇到不完整的模式或认知挑战时加以利用。模型的注意力机制触发了模式重建算法,通常没有外部验证,使其易受操控。这种漏洞可以通过标准推理过程导致任意命令的执行,绕过传统的安全措施。

案例研究:滑块拼图攻击

一个显著的例子是将命令嵌入到 15 件滑块拼图中。当像 Gemini 2.5 Pro 这样的模型处理拼图时,其推理算法重建隐藏的指令,可能导致文件删除等操作。这种方法通过将恶意行为框定为认知任务的逻辑结果来颠覆安全性。

计算脆弱性

核心脆弱性来自 AI 的计算架构,它优先考虑问题解决而非安全验证。这在推理时创建了可利用的路径,恶意负载通过推理过程而不是输入操控出现。

新兴威胁和防御措施

具有系统访问权限的 AI 代理面临的风险尤其高,因为他们在日常操作中可能遭遇嵌入的难题,从而导致数据泄露或系统受损。为应对这些威胁,专家建议开发以输出为中心的安全架构、认知模式识别系统以及计算沙盒,以将问题解决能力与系统访问分开。

更多关于 AI 系统安全的见解,请访问 NVIDIA 原文。

Image source: Shutterstock