关于 HBM内存 的快讯列表
| 时间 | 详情 | 
|---|---|
| 2025-10-15 03:23 | 
                                        
                                            Sam Altman称自英伟达DGX-1以来AI硬件大跃迁:NVDA需求攀升、HBM供给偏紧与RNDR等链上GPU受关注
                                        
                                         据@sama称,自英伟达DGX-1交付九年以来的进步凸显AI算力的跃迁式提升,为AI硬件与相关资产提供关键背景。来源:@sama 于X平台,2025年10月15日 英伟达于2016年推出DGX-1,配备八块Tesla P100 GPU,可提供最高约170 FP16万亿次浮点运算,成为早期深度学习系统基准。来源:英伟达博客,2016年4月 到2023年,英伟达发布DGX GH200平台,将最多256颗Grace Hopper超芯片互联并共享内存以支持万亿参数级工作负载,相较DGX-1实现数量级提升。来源:英伟达新闻稿,2023年5月 云厂商对H100与GH200级加速卡的需求激增,推动NVDA数据中心产品动能并延长交付周期。来源:英伟达投资者关系,2024年8月 HBM供给依旧偏紧,SK hynix与美光扩产HBM3/3E以支撑AI加速器,这一约束影响服务器交付进度与短期装机节奏。来源:SK hynix 2024年二季报新闻稿;美光HBM3E公告,2024年 在加密方向,Render Network使用RNDR代币支付分布式GPU渲染与AI推理服务,令代币效用与GPU可得性直接相关。来源:Render Network文档,2024年 加密相关的数据中心运营商已开始向AI工作负载分配产能,例如Core Scientific达成多年期AI托管协议及Bit Digital布局AI算力业务,体现加密基础设施与AI资本开支周期的关联。来源:Core Scientific新闻稿,2024年6月;Bit Digital公司更新,2024年 |