Place your ads here email us at info@blockchain.news
Together AI通过更大的模型和Hugging Face集成提升微调平台 - Blockchain.News

Together AI通过更大的模型和Hugging Face集成提升微调平台

realtime news Sep 10, 2025 19:32

Together AI推出其微调平台的重大升级,包括支持100B+参数模型、扩展的上下文长度以及与Hugging Face Hub的改进集成。

Together AI通过更大的模型和Hugging Face集成提升微调平台

Together AI宣布对其微调平台进行重大升级,旨在简化AI开发者的模型定制过程。最新的增强功能包括根据Together AI的说法,能够训练超过1000亿参数的模型、扩展的上下文长度,以及与Hugging Face Hub的增强集成。

扩展模型容量

该平台现在支持一系列新的大型模型,如DeepSeek-R1、Qwen3-235B和Llama 4 Maverick。这些模型旨在执行复杂任务,有时可以媲美专有模型。平台的工程优化使得这些大规模模型的高效训练成为可能,降低了成本和时间投入。

更长的上下文长度

为了响应对长上下文处理的日益增长的需求,Together AI已经彻底改进了其训练系统以支持增加的上下文长度。开发者现在可以利用最多131k标记的上下文长度来处理某些模型,增强了平台处理复杂和冗长数据输入的能力。

与Hugging Face Hub的集成

与Hugging Face Hub的集成允许开发者对平台上托管的各种模型进行微调。此功能使用户能够从预适应模型开始,然后进一步定制以适应特定任务。此外,训练运行的输出可以直接保存到Hub上的存储库中,方便无缝的模型管理。

高级训练目标

Together AI还扩展了对偏好优化的新训练目标的支持,如长度归一化DPO和SimPO,为偏好数据的训练提供了更多灵活性。平台现在支持最大批量设置,优化不同模型和模式的训练过程。

这些增强措施是Together AI致力于为AI研究人员和工程师提供尖端工具的一部分。通过这些新功能,微调平台定位于支持甚至最要求苛刻的AI开发任务,使其成为机器学习创新的基石。

Image source: Shutterstock