AI 快讯列表关于 TPUv5p
| 时间 | 详情 |
|---|---|
|
2026-04-23 15:05 |
Google DeepMind分布式突破:在低带宽下跨四个美国地区训练12B Gemma并无缝混用TPU6e与TPUv5p
据Google DeepMind在X平台披露,团队在低带宽网络下将12B规模的Google Gemma模型分布在美国四个地区完成训练,并验证了在TPU6e与TPUv5p等异构硬件上无性能下降的混合训练能力。根据Google DeepMind的说明,这一跨区域编排为企业带来新的算力策略,包括跨区域算力池化、提升容灾与弹性、以及盘活闲置算力;同时,代际混用能力可降低硬件迭代成本与迁移阻力,为分布式大模型训练与推理的商业部署提供更高的灵活性。 |