Together AI 发布 DeepSeek-V3.1:多功能混合模型
realtime news Aug 26, 2025 00:35
Together AI 推出 DeepSeek-V3.1,一种具有快速响应和深度推理模式的混合模型,确保各种应用的效率和可靠性。

Together AI 推出 DeepSeek-V3.1,这是一款先进的混合模型,旨在满足快速响应需求和复杂推理任务。该模型现已可在 Together AI 的平台上部署,特别以其双模式功能著称,使用户可以根据任务复杂性选择非思维模式和思维模式,以优化性能。
功能和能力
根据Together AI的说法,DeepSeek-V3.1 旨在提供更高的效率和可靠性。它支持无服务器部署,具有 99.9% 的 SLA,确保在各种使用情境下的强大性能。该模型的思维模式提供了与其前身 DeepSeek-R1 可比的质量,但速度显著提高,使其适合生产环境。
该模型建立在大型训练数据集之上,包含用于 32K 上下文的 6300 亿个标记和用于 128K 上下文的 2090 亿个标记,增强了其处理长对话和大型代码库的能力。这确保了模型能很好地适应需要详细分析和多步骤推理的任务。
实际应用
DeepSeek-V3.1 擅长于各种应用,包括代码和搜索代理任务。在非思维模式下,它可以有效地处理诸如 API 端点生成和简单查询等例行任务。相反,思维模式非常适合复杂问题的解决,如调试分布式系统和设计零停机数据库迁移。
对于文档处理,该模型在实体提取和基本解析方面提供非思维功能,而思维模式支持合规工作流程和监管交叉引用的全面分析。
性能指标
基准测试揭示了模型在两种模式下的优势。例如,在 MMLU-Redux 基准中,思维模式达到了 93.7% 的成功率,比非思维模式高出 1.9%。类似地,GPQA-Diamond 基准显示思维模式提升了 5.2%。这些指标强调了模型在各种任务中增强性能的能力。
部署和集成
DeepSeek-V3.1 可通过 Together AI 的无服务器 API 和专用端点获取,提供 6710 亿总参数和 MIT 许可的技术规范,适用于广泛的应用。该基础设施设计可靠,设有北美数据中心并符合 SOC 2 标准。
开发人员可以使用提供的 Python SDK 快速将模型集成到其应用中,实现 DeepSeek-V3.1 功能无缝融入现有系统。Together AI 的基础设施支持大规模专家混合模型,确保思维模式和非思维模式在生产工作负载下高效运行。
随着 DeepSeek-V3.1 的推出,Together AI 旨在为寻求增强其 AI 驱动应用的企业提供一个多功能的解决方案,具备快速响应和深度分析能力。
Image source: Shutterstock