关于 长上下文加速 的快讯列表
| 时间 | 详情 |
|---|---|
|
2025-10-22 04:00 |
DeepSeek v3.2 685B MoE 将AI推理成本降至V3.1的1/6–1/7、长上下文加速2–3倍:MIT许可且适配华为芯片,交易要点
据 @DeepLearningAI,DeepSeek 新的 685B MoE v3.2 仅关注最相关的tokens,使长上下文推理速度较 v3.1 提升 2–3 倍。来源:@DeepLearningAI,2025年10月22日。 据 @DeepLearningAI,处理成本较 v3.1 降低 6–7 倍,API 定价为每百万 input/cached/output tokens 分别为 0.28/0.028/0.42 美元。来源:@DeepLearningAI,2025年10月22日。 据 @DeepLearningAI,模型权重采用 MIT 许可,并对华为及中国芯片进行了优化,有利于在中国本地算力环境中部署。来源:@DeepLearningAI,2025年10月22日。 据 @DeepLearningAI,整体性能与 v3.1 相近,在编程与智能体任务上有小幅提升,在部分科学与数学任务上略有回落。来源:@DeepLearningAI,2025年10月22日。 据 @DeepLearningAI,这些明确的成本与时延数据为交易者提供了可量化的基准,用于跟踪AI基础设施、去中心化算力与链上AI智能体工具赛道的价格压力与效率趋势。来源:@DeepLearningAI,2025年10月22日。 |