AI 快讯列表关于 网络安全
| 时间 | 详情 |
|---|---|
|
2025-12-18 21:27 |
GPT-5.2-Codex重塑软件开发与网络安全,推动AI自动化新标准
据OpenAI官方消息,GPT-5.2-Codex已在Codex平台上线,成为现实世界软件开发与防御性网络安全领域的全新AI自动化标杆。该模型在处理复杂编程任务时表现更稳定,并能高效扩展至大型项目,为企业自动化代码生成和强化安全防护提供强大支持。这一进步为软件工程AI应用、提升生产力及智能网络安全带来巨大商业机会(来源:OpenAI,2025)。 |
|
2025-11-21 14:30 |
假冒ChatGPT应用劫持手机:2025年AI安全风险与商业机遇
据Fox News AI报道,近期假冒ChatGPT应用激增,这些恶意应用在用户不知情的情况下劫持手机设备(来源:Fox News AI,2025-11-21)。这些应用伪装成合法AI聊天机器人,但实际上会安装恶意软件、窃取个人信息并危害设备安全。此趋势凸显了AI应用市场对安全审核、网络安全措施和用户教育的迫切需求。对于开发生成式AI或聊天机器人的企业而言,透明品牌建设、安全分发渠道及持续安全监控成为维护用户信任和合规的关键。同时,这一安全事件也为专注AI威胁防护的网络安全公司和应用商店的AI审核系统带来了市场新机遇。 |
|
2025-11-13 18:13 |
Anthropic成功阻止AI主导的间谍活动,目标包括科技和金融行业
据Anthropic(@AnthropicAI)报道,该公司成功阻止了一起高度复杂的AI主导间谍活动。此次攻击针对大型科技公司、金融机构、化工制造企业及政府机构,使用先进的人工智能技术渗透防线,威胁敏感数据和知识产权安全。Anthropic高度确认该行动由中国国家支持的黑客组织策划。这一事件凸显了人工智能在网络间谍中的应用趋势,为AI安全防护、威胁检测等领域带来新的市场机会。来源:Anthropic(@AnthropicAI) |
|
2025-10-24 17:59 |
OpenAI Atlas平台安全风险:企业使用AI平台需警惕数据泄露
根据@godofprompt的消息,OpenAI的Atlas平台存在潜在安全漏洞,用户可能因此面临被黑客攻击的风险(来源:https://twitter.com/godofprompt/status/1981782562415710526)。随着企业在工作流程中广泛采用AI工具,如Atlas,提升网络安全措施变得尤为重要。定期安全审查、API安全管理和员工培训是防止数据泄露和安全威胁的关键措施,确保AI平台的安全使用成为企业不可忽视的重点。 |
|
2025-10-15 20:53 |
微软发布全新开源AI网络安全基准测试工具:基于真实场景的测评
根据Satya Nadella消息,微软推出了一款面向网络安全领域的开源AI基准测试工具,通过模拟真实世界的场景来评估AI系统在应对网络攻击中的推理和防护能力(来源:微软安全博客,2025-10-14)。该工具为企业提供统一标准,帮助衡量和提升其AI安全解决方案的有效性,推动AI在网络安全领域的实际应用和创新,加速企业级AI安全技术的落地与信任建设。 |
|
2025-10-06 13:05 |
谷歌DeepMind推出CodeMender AI代理,结合Gemini Deep Think实现自动修补软件漏洞
据谷歌DeepMind官方消息,CodeMender是一款基于Gemini Deep Think的新型AI代理,可实现自动检测并修补关键的软件漏洞。该技术显著缩短了开发者发现和修复安全缺陷的时间,助力企业加快安全软件开发流程,提高代码安全性。CodeMender的自动化修补功能为软件企业和大型机构提供了提升网络安全和降低运营成本的新商机(来源:@GoogleDeepMind,2025年10月6日)。 |
|
2025-08-21 10:36 |
Anthropic利用NNSA核风险指标开发AI内容分类器,提升安全监测能力
根据Anthropic官方推特(@AnthropicAI)2025年8月21日消息,该公司结合美国国家核安全局(NNSA)分享的核风险指标清单,开发出一套基于人工智能的内容分类器系统,能够自动区分敏感与普通的核话题内容。此举不仅大幅提升了核相关对话的自动化监控效率,还为国防与网络安全等领域的合规与风险管控创造了新的AI商业机会。该项目展示了人工智能在国家安全实际场景中的应用价值,有望推动AI监控系统在全球安全市场的落地和拓展。 |
|
2025-08-05 19:47 |
OpenAI启动2025年50万美元红队挑战赛,推动开源AI安全发展
根据OpenAI官方推特(@OpenAI)消息,OpenAI发起了总奖金50万美元的红队挑战赛,旨在提升开源AI模型的安全性。此次全球性活动邀请研究人员、开发者和AI爱好者发现并报告开源AI模型中潜在的新型风险,由OpenAI及顶尖实验室专家评审。该活动为网络安全、AI安全创业公司及相关组织提供了新的商业机会,推动AI风险防护工具的创新开发。此举显示出AI安全主动防护的重要性,进一步促进了AI产业安全生态的完善(来源:OpenAI推特,2025年8月5日;kaggle.com/competitions/o)。 |
|
2025-06-22 15:54 |
SandboxAQ发布全新AI数据集,助力量子计算与网络安全创新
根据Yann LeCun(@ylecun)消息,SandboxAQ正式发布了面向量子计算和网络安全领域的全新AI数据集(来源:@ylecun,Twitter,2025年6月22日)。该数据集包含高质量的真实数据,可帮助AI开发者和研究人员训练更强大的机器学习模型,应用于量子算法仿真和威胁检测等场景。这一举措为需要先进AI安全和量子技术解决方案的企业带来了新的商机,因为专业数据集的获取是推动AI创新和增强市场竞争力的关键(来源:SandboxAQ官方数据集页面,2025年6月)。 |
|
2025-06-13 17:21 |
AI智能体重塑网络安全:斯坦福BountyBench框架全面评估攻防能力
据斯坦福AI实验室消息,BountyBench作为首个能系统捕捉AI智能体在现实世界中攻防网络能力的框架,为网络安全行业带来突破性进展(来源:斯坦福AI实验室,2025)。该工具让安全专家和企业能够评估自主AI对网络攻击与防御策略的实际影响,提供可操作的见解以提升防御能力和威胁检测。BountyBench为网络安全解决方案、风险评估和自适应AI安全协议开发带来了新的商业机会。 |
|
2025-06-05 22:19 |
DeepMind人工智能品牌被滥用于加密货币诈骗:AI行业安全警示
据@goodfellow_ian称,其Twitter账户被黑,黑客曾发布虚假加密货币信息并冒用DeepMind人工智能品牌。该事件凸显了AI品牌被网络诈骗利用的风险,提醒AI企业加强网络安全措施,如多因素验证和品牌名监控,以维护企业声誉和用户信任。(来源:@goodfellow_ian,2025年6月5日) |