快讯列表

关于 30倍更少token 的快讯列表

时间 详情
2025-08-21
20:12
Hyperbolic Labs 案例:LLoCO 实现 128k 上下文,减少 30 倍 Token,推理提速 7.62 倍,基于 H100 GPU

据 @hyperbolic_labs 披露,伯克利天空计算实验室研究员谭思俊开发的 LLoCO 技术可在处理 128k 上下文的同时将 Token 使用量减少 30 倍。来源:Hyperbolic Labs 于 X 该案例报告显示推理速度提升至 7.62 倍。来源:Hyperbolic Labs 于 X 该项目由 Hyperbolic Labs 的英伟达 H100 GPU 提供算力支持。来源:Hyperbolic Labs 于 X

来源
2025-08-21
20:12
Hyperbolic 的 LLoCO 以少30倍 token 匹配 32k 上下文,较未微调压缩提升 +13.64——AI 加密交易者关注的效率基准

据 @hyperbolic_labs 表示,LLoCO 在所有测试数据集上跑赢基线,使用比 32k 上下文模型少 30 倍的 token 但能达到相当表现,并较未微调的压缩方法提升 +13.64 分(来源:@hyperbolic_labs 在 X,2025年8月21日)。由于主流 LLM API 按 token 计费,30 倍的 token 减少在同等性能下意味着同一任务的 token 用量显著下降,这是与成本相关的关键效率指标(来源:OpenAI 定价)。这些量化结果为交易者比较长上下文压缩方法、评估与 AI 相关加密与算力市场的效率趋势提供可对比的基准(来源:@hyperbolic_labs 在 X,2025年8月21日)。

来源
2025-08-20
18:32
LLoCO模型压缩突破:以30倍更少Token匹配32k上下文,并取得+13.64分提升

根据@hyperbolic_labs,LLoCO在所有测试数据集上均超越基线方法(来源:@hyperbolic_labs,2025年8月20日)。根据@hyperbolic_labs,该方法在使用30倍更少的token情况下匹配32k上下文模型表现(来源:@hyperbolic_labs,2025年8月20日)。根据@hyperbolic_labs,相比未微调的压缩方案,LLoCO带来+13.64分的评分提升(来源:@hyperbolic_labs,2025年8月20日)。该帖子未提供与加密货币或市场影响相关的信息(来源:@hyperbolic_labs,2025年8月20日)。

来源