AI 快讯列表关于 硬件加速
| 时间 | 详情 |
|---|---|
|
2025-06-24 20:24 |
O3-mini级AI模型何时能在智能手机本地运行?行业分析与时间表
根据Sam Altman在推特上的最新提问,关于O3-mini级AI模型何时能够在智能手机本地运行,引发了AI行业的广泛讨论。业界专家指出,随着高通Snapdragon AI和苹果Neural Engine等硬件加速技术的发展,移动端大语言模型的本地推理能力正逐步增强(来源:Sam Altman 推特,2025-06-24)。分析师认为,O3-mini级模型需要高内存和算力,一旦实现本地运行,将推动AI助手、隐私保护应用和实时翻译等领域的商业机会。实现这一突破的时间窗口主要依赖于移动芯片与模型量化技术的进步,预计2-4年内有望实现(来源:高通AI研究,2024;苹果WWDC,2024)。 |