Arcee AI 从 AWS 迁移到 Together AI,以增强灵活性和性能
realtime news May 05, 2025 22:43
Arcee AI 从 AWS 迁移到 Together 专用端点,优化其专用小型语言模型的成本和性能,提高运营敏捷性和效率。

专注于简化 AI 采纳的公司 Arcee AI,通过将其专用的小型语言模型(SLM)从亚马逊网络服务(AWS)转移到 Together 专用端点,采取了战略措施。根据 together.ai,此次迁移为 Arcee AI 带来了成本效率、性能和运营敏捷性的显着改善。
优化小型语言模型
Arcee AI 战略的核心是开发专为特定任务优化的小型语言模型,通常低于 720 亿参数。该公司利用专有技术进行模型训练、合并和蒸馏,生成在编码、文本生成和高速推断等任务中表现卓越的高性能模型。
随着迁移到 Together AI,这些模型中的七个现在可以通过 Together AI 的无服务器端点访问。这些模型包括 Arcee AI Virtuoso-大, Arcee AI Virtuoso-中型, Arcee AI Maestro, Arcee AI Coder-大型, Arcee AI Caller, Arcee AI Spotlight, 和 Arcee AI Blitz,每个模型都设计用于从编码到视觉任务的复杂任务。
软件增强: Arcee Conductor 和 Arcee Orchestra
此外,Arcee AI 开发了两个软件产品,Arcee Conductor 和 Arcee Orchestra,以增强其 AI 提供的服务。Conductor 作为智能推理路由系统,根据任务要求有效地将查询引导至最合适的模型。此系统不仅降低成本,还通过利用每项任务的最佳模型来提高性能基准。
Arcee Orchestra 专注于构建代理工作流程,使企业能够通过与第三方服务的无缝集成来自动化任务。无代码界面允许用户轻松创建由 AI 驱动能力推动的自动化工作流程。
关于 AWS 的挑战与向 Together AI 的转变
最初,Arcee AI 通过 AWS 的托管 Kubernetes 服务 EKS 部署其模型。然而,此设置带来了挑战,需要大量的工程资源和专业知识,使其繁琐且昂贵。AWS 的 GPU 定价和采购困难进一步使问题变得复杂,这促使 Arcee AI 寻求替代解决方案。
Together 专用端点提供了托管的 GPU 部署,消除了对内部基础设施管理的需求。此过渡简化了 Arcee AI 的运营,提供了更大的灵活性和成本效益。迁移过程无缝进行,通过 Together AI 管理基础设施并提供 Arcee AI 模型的 API 访问。
性能提升与未来前景
迁移后,Arcee AI 报告其模型的性能提升,实现每秒超过 41 次查询并显着减少延迟。这些改进使 Arcee AI 能够继续扩大其产品并在 AI 领域内进行创新。
展望未来,Arcee AI 计划将其模型进一步集成到 Arcee Orchestra 中,并通过专用模式增强 Arcee Conductor 的工具调用和编码功能。Together AI 继续致力于优化其基础设施,以支持 Arcee AI 的增长,确保卓越的性能和成本效益。
该合作关系反映了 AI 行业的演变动态,Arcee AI 等公司利用基于云的解决方案来完善他们的产品并提供更优的投资回报。欲了解更多详情,请访问 together.ai。
Image source: Shutterstock