内容过滤 AI快讯列表 | Blockchain.News
AI 快讯列表

AI 快讯列表关于 内容过滤

时间 详情
2026-03-30
10:36
Anthropic“神话”模型曝光:功能与安全并重的企业级AI最新分析

据 The Rundown AI 报道,Anthropic 正在与少量合作伙伴测试代号“Mythos”的内部大模型,聚焦可靠性与安全防护,面向企业场景(来源:TheRundown.ai)。据 TheRundown.ai 称,早期反馈显示该模型在指令遵循与降低幻觉方面较以往 Claude 版本更优,适合金融分析、法律起草与复杂检索增强(RAG)流程(来源:TheRundown.ai)。据 TheRundown.ai 报道,Anthropic 为“神话”模型配置了可审计、可过滤与可策略调优的输出控制,以满足合规行业需求(来源:TheRundown.ai)。据 TheRundown.ai 指出,商业影响包括降低人工复核成本、提升摘要与起草可信度,并在与检索和工具调用结合时带来潜在成本效率,适合在客服自动化、研究助理与风险监控等领域启动试点(来源:TheRundown.ai)。

2026-02-27
17:30
科技公司拒绝五角大楼对其AI不受限使用的要求:政策冲突与2026国防AI影响分析

据Fox News AI在X平台报道,一家科技公司拒绝五角大楼对其AI不受限制使用的要求,凸显该公司坚持安全约束与使用政策治理的红线(来源:Fox News AI推文与Fox News Politics)。据Fox News报道,争议焦点在于开放式军事用途与防武器化保障之间的冲突,企业更倾向于以合约条款、内容过滤与可审计性来限制政府的通用授权。依据Fox News,此举将影响2026年国防采购:需要与商业基础模型的使用政策对齐,并引入可追溯、可解释与可控的技术栈。根据Fox News,商业机会包括面向军方合规的模型即服务、策略执行与审计工具、红队评估服务,以及本地化与私有化部署方案。此外,Fox News称,这一张力可能推动国防部加速建立模型评测基准、来源追踪与安全对齐微调合作,以在不违反厂商安全政策的前提下获得可靠能力。

2025-11-22
02:11
人工智能行业探索“slop”量化定义:推动大模型输出质量评估新标准

根据Andrej Karpathy(@karpathy)的观点,AI社区正在积极讨论如何将“slop”(即大语言模型输出中不准确或低质量内容的感知)进行量化和可测量的定义。Karpathy指出,尽管专家可凭直觉估算“slop指数”,但目前尚无统一标准。他提到可以通过LLM小型序列和token预算等方法进行探索。这一趋势为AI企业开发“slop”量化工具带来巨大商机,有助于提升模型评估体系、优化内容过滤,并加速企业级AI应用落地,确保输出质量和可靠性(来源:@karpathy,Twitter,2025年11月22日)。

2025-06-15
13:00
哥伦比亚大学研究揭示LLM AI代理在受信任平台上易受恶意链接攻击

根据DeepLearning.AI报道,哥伦比亚大学研究人员发现,基于大型语言模型(LLM)的AI代理在Reddit等受信任网站中容易受到恶意链接的操控。攻击者可通过在主题相关的帖子中嵌入有害指令,引诱AI代理访问被攻陷的网站。这一安全漏洞对采用LLM自动化的企业构成重大风险,凸显了在企业AI部署中加强内容过滤与监控的重要性(来源:DeepLearning.AI,2025年6月15日)。