AI 快讯列表关于 稀疏注意力
| 时间 | 详情 |
|---|---|
| 08:07 |
稀疏注意力将128K上下文成本降至60%以下:扩展大模型上下文长度的实用技术指南
根据X平台用户@_avichawla 的帖子,采用稀疏注意力后,128K上下文下的预填充成本约从$0.65降至$0.35每百万token,解码成本约从$2.4降至$0.8,并且V3.2在部分长上下文基准上表现不降反升。该帖指出,关键在于在不牺牲质量的前提下实现稀疏注意力,这为更大上下文窗口与更低推理成本同时成立提供了路径。结合业界公开研究报道,扩展上下文的常见方法还包括:RoPE或YaRN等位置编码缩放以稳定超长序列、Performer与Hyena等线性注意力以降低二次复杂度、RAG检索增强将长背景外置存储、分块加跨块注意力的层级条件建模、滑动窗口与状态压缩保持语境连续、以及推理时的attention sink与KV缓存淘汰策略控制显存增长。对于企业,这些方案可显著降低长文档问答、合同审阅、代码理解与多模态转录的服务成本并提升产能,来源均基于上述帖文与公开研究综述。 |
| 08:07 |
DeepSeek V3.2 稀疏注意力DSA重磅突破:O(Lk)复杂度将128K长上下文计算大幅降本
据推特用户 @_avichawla 报道,DeepSeek 在 V3.2 中推出 DeepSeek Sparse Attention(DSA),将注意力计算从 O(L²) 降为 O(Lk),每次查询仅选取前 k 个键值对,且无论上下文是否为 128K,最多只保留 2048 个令牌。根据该来源,轻量级 Lightning Indexer 采用少量 FP8 头对令牌重要性打分,先进行廉价筛选,再在被选子集上执行昂贵注意力,从而集中算力并降低延迟与成本。该来源还指出,固定的 k 使显存与计算更可预测,有利于长文档问答、检索增强生成和企业级长上下文推理的吞吐与服务经济性。 |
| 08:06 |
稀疏注意力实用指南:3种模式、权衡与2026推理提效分析
据推特用户 @_avichawla 表示,稀疏注意力通过局部窗口和学习式选择仅对部分token计算注意力,在降低二次复杂度的同时存在性能权衡。根据Avi Chawla的帖子,业界常用的做法包括滑动局部窗口、块稀疏模式与学习式top k路由,以在更长上下文下实现更低成本推理。据与稀疏注意力相关的研究如Longformer与BigBird所报道,这些模式可在长序列任务中显著降低显存与延迟,同时保持精度;这为企业在低成本推理、端侧大模型与长上下文RAG管线带来机会。依据该帖观点,团队需在窗口大小、块结构与稀疏度调度间做权衡,直接影响吞吐、GPU显存规划与服务成本。 |
|
2025-09-29 10:10 |
DeepSeek-V3.2-Exp发布:稀疏注意力技术提升AI训练速度,API降价50%
据DeepSeek (@deepseek_ai) 官方消息,DeepSeek-V3.2-Exp实验性模型正式发布,基于V3.1-Terminus架构,首次引入DeepSeek稀疏注意力(DSA)技术,大幅提升长文本任务的训练与推理效率。目前该模型已在App、Web和API平台上线,API价格下降超过50%。此次升级为企业用户带来更高效、低成本的AI文本处理和分析解决方案,推动自然语言处理领域的商业化应用(来源:DeepSeek官方推特)。 |