AI 快讯列表关于 专家混合
| 时间 | 详情 |
|---|---|
|
2026-04-02 16:13 |
Gemma 4 重磅发布:2B–31B 开源模型全系解析,单位参数智力突出
据 Sundar Pichai 在 X 表示,Gemma 4 作为开源模型家族发布,覆盖 2B、4B、26B MoE 与 31B 稠密四种规模,强调单位参数智力与推理效率。据 Demis Hassabis 在 X 称,这些模型可按任务进行微调,其中 31B 追求原始性能,26B MoE 降低延迟,2B/4B 面向边缘与本地设备部署。根据上述来源,企业可据此构建行业定制助手、以 26B MoE 优化服务成本与延迟、用 31B 稠密提升检索增强与批处理质量,并在移动与嵌入式场景用 2B/4B 实现私有本地推理,扩大 MLOps 集成与商业化落地空间。 |