关于 Llama 3.2 的快讯列表
| 时间 | 详情 |
|---|---|
|
2025-10-05 01:00 |
GAIN-RL将LLM微调提速至2.5倍:在Qwen 2.5与Llama 3.2上70-80轮达基线,降低计算成本
据@DeepLearningAI称,研究者提出了GAIN-RL方法,通过利用模型的简单内部信号先训练最有用的样本来微调大语言模型,信息来源:DeepLearning.AI在X平台发布于2025年10月5日及The Batch文章摘要 hubs.la/Q03M9ZjV0。 据@DeepLearningAI称,在Qwen 2.5和Llama 3.2上,GAIN-RL在70至80个epoch内即可达到基线准确率,而非200个epoch,约快2.5倍,信息来源:DeepLearning.AI在X平台发布于2025年10月5日及The Batch文章摘要 hubs.la/Q03M9ZjV0。 据@DeepLearningAI称,该加速有助于降低计算成本并缩短面向数学与代码助手团队的迭代周期,这对评估AI训练效率与成本结构的交易决策具有直接参考价值,信息来源:DeepLearning.AI在X平台发布于2025年10月5日及The Batch文章摘要 hubs.la/Q03M9ZjV0。 |
|
2025-03-04 18:36 |
Blended Labs 利用 Llama 3.1 和 3.2 模型实现 AI 驱动的教育创新
根据 AI at Meta 的消息,位于德国的教育科技公司 Blended Labs 正在使用 Llama 3.1 和 3.2 模型来增强 AI 原生的教育流程。这些模型旨在创建个性化的学习路径、提供实时反馈、即时生成教育内容,并支持社会游戏化功能。这种整合可能会重新塑造教育方法,并为教育技术领域的投资提供新途径。 |