Together 推出代码解释器 API,实现无缝的 LLM 代码执行
realtime news May 21, 2025 17:21
Together.ai 发布了 Together Code Interpreter (TCI),提供可安全高效执行 LLM 生成代码的 API,增强智能代理工作流和强化学习操作。

Together.ai 推出了创新工具 Together Code Interpreter (TCI),提供一个 API,用于无缝执行大语言模型 (LLMs) 生成的代码。据 together.ai 称,此开发有望增强开发者和使用 LLM 进行代码生成和智能代理工作流的企业的能力。
简化代码执行
尽管 LLM 擅长生成代码,但它们通常缺乏执行代码的能力,开发者需要进行手动测试和调试。TCI 通过提供简单的方法,在规模上安全执行 LLM 生成的代码,解决了这一限制。这一创新简化了智能代理工作流开发,为更先进的强化学习操作铺平了道路。
关键特性和应用
Together Code Interpreter 通过接收 LLM 生成的代码作为输入,在安全的沙盒环境中执行,并输出结果。然后可以将此输出重新引入 LLM,以在闭环系统中持续改进。此过程允许 LLM 产生更丰富、更动态的响应。
例如,当像 Qwen Coder 32B 的 LLM 生成创建图表的代码时,TCI 可以执行代码并生成可视化输出,克服 LLM 固有的执行限制。
增强强化学习
TCI 的快速代码执行能力吸引了专注于强化学习 (RL) 的机器学习团队的极大兴趣。它通过全面的单元测试启用自动化评估,促进高效的 RL 训练周期。TCI 可以处理数百个并发的沙盒执行,提供了严格测试和评估所需的安全环境。
值得注意的是,加州大学伯克利分校 AI 研究和 Sky Computing Lab 的开源项目 Agentica 已将 TCI 集成到他们的 RL 操作中。此集成加速了他们的训练周期,提高了模型的准确性,同时保持了成本效益。
可扩展性和可访问性
Together.ai 引入了“会话”概念作为 TCI 使用的计量单位,定价为每次会话 $0.03。每个会话代表一个活动代码执行环境,持续 60 分钟并支持多个执行任务。此模型使得 TCI 在各种应用中得以高效、可扩展地使用。
开始使用 TCI
开发人员可以通过可用的 Python SDK 或 API 开始利用 TCI,Together.ai 提供了全面的文档和资源。此发布包括对 MCP 的支持,允许代码解释能力集成到任何 MCP 客户端中,扩展了该工具的可访问性和实用性。
Together Code Interpreter 将改变开发人员处理 LLM 生成代码的方式,提供简化的、可扩展的解决方案来执行复杂工作流和增强机器学习操作。
Image source: Shutterstock