AI 快讯列表关于 Performer
| 时间 | 详情 |
|---|---|
| 08:07 |
稀疏注意力将128K上下文成本降至60%以下:扩展大模型上下文长度的实用技术指南
根据X平台用户@_avichawla 的帖子,采用稀疏注意力后,128K上下文下的预填充成本约从$0.65降至$0.35每百万token,解码成本约从$2.4降至$0.8,并且V3.2在部分长上下文基准上表现不降反升。该帖指出,关键在于在不牺牲质量的前提下实现稀疏注意力,这为更大上下文窗口与更低推理成本同时成立提供了路径。结合业界公开研究报道,扩展上下文的常见方法还包括:RoPE或YaRN等位置编码缩放以稳定超长序列、Performer与Hyena等线性注意力以降低二次复杂度、RAG检索增强将长背景外置存储、分块加跨块注意力的层级条件建模、滑动窗口与状态压缩保持语境连续、以及推理时的attention sink与KV缓存淘汰策略控制显存增长。对于企业,这些方案可显著降低长文档问答、合同审阅、代码理解与多模态转录的服务成本并提升产能,来源均基于上述帖文与公开研究综述。 |