AI 快讯列表关于 中国芯片优化
| 时间 | 详情 | 
|---|---|
| 
                                        2025-10-22 04:00  | 
                            
                                 
                                    
                                        DeepSeek 685B MoE模型:2-3倍加速长上下文推理,6-7倍降低AI计算成本,专为中国芯片优化
                                    
                                     
                            根据@DeepLearningAI报道,DeepSeek最新推出的685B专家混合(MoE)大模型采用相关性Token关注机制,实现了2-3倍长上下文推理速度提升,并将处理成本降低6-7倍,相较于上一代V3.1模型(来源:DeepLearning.AI Twitter,2025年10月22日)。V3.2模型权重采用MIT开源协议,通过API收费为每百万输入/缓存/输出Token分别为$0.28/$0.028/$0.42,推动开源和API商业模式发展。该模型专门针对华为及中国本土芯片进行优化,提升本地硬件兼容性。虽然整体性能与V3.1相近,但在代码生成和智能体等任务上略有提升,科学和数学领域略微下降,为中国市场和成本敏感型AI应用带来新商机(来源:DeepLearning.AI,The Batch)。  |