AI 快讯列表关于 可训练记忆模块
| 时间 | 详情 | 
|---|---|
| 
                                        2025-09-17 03:00  | 
                            
                                 
                                    
                                        谷歌ATLAS语言模型突破:可处理千万级Token,创新可训练记忆模块引领AI长文本应用
                                    
                                     
                            据DeepLearning.AI报道,谷歌研究人员推出了ATLAS语言模型架构,用可训练记忆模块取代传统注意力机制,实现了对高达千万级Token的输入处理能力(来源:DeepLearning.AI)。该模型在FineWeb数据集上训练,推理阶段仅更新记忆模块,大幅提升了推理效率。ATLAS在BABILong长上下文基准测试中获得80%高分,在八个问答基准上平均得分57.62%,超越Titans和Transformer++等主流模型(来源:DeepLearning.AI)。这一创新为法律文档分析、企业级检索和大规模数据摘要等AI长文本应用带来全新商业机遇。  |