AI 快讯列表关于 混合专家架构
| 时间 | 详情 |
|---|---|
|
2025-08-26 17:59 |
阿里巴巴发布Wan 2.2:开放权重视频生成AI支持消费级GPU和混合专家架构
据DeepLearning.AI报道,阿里巴巴推出了Wan 2.2开放权重视频生成模型家族,采用先进的混合专家(MoE)架构。Wan 2.2包括一个拥有50亿参数的文本/图像转视频模型,可在消费级GPU上运行,大幅降低了高性能视频生成的门槛。该MoE设计分为高噪声和低噪声两大专家模块,提高了视频生成的准确性和效率。这一创新为内容创作者、市场营销人员及AI创业公司带来了可扩展、高效的视频生成新机遇,无需昂贵硬件即可实现AI内容创作(来源:DeepLearning.AI)。 |
|
2025-06-18 14:55 |
Meta发布Llama 4进阶课程:解锁Mixture-of-Experts架构AI模型新机遇
根据Andrew Ng(@AndrewYNg)的消息,Meta携手@AIatMeta推出全新短课程“Building with Llama 4”,由Meta AI团队合作伙伴工程总监@asangani7授课。该课程聚焦Llama 4的三款新模型及其引入的Mixture-of-Experts(MoE)架构,进一步提升了开源大语言模型的性能和扩展能力,为开发者和企业提供实用指导。这一举措为AI产品开发、定制化及企业级应用带来全新商机,特别适合寻求高效、经济AI解决方案的企业用户。(来源:Andrew Ng,Twitter,2025年6月18日) |