市值近4万亿美元!英伟达GB300服务器正式出货
当地时间 7 月 3 日,人工智能芯片龙头英伟达股价表现亮眼,盘中一度涨超 2%,触及 160.98 美元的历史新高,市值随之突破 3.92 万亿美元。虽然当天未突破 4 万亿美元市值,但 3.92 万亿美元已是有史以来全球科技公司的最高市值。有分析人士认为,英伟达必将正式加冕为历史上市值最高的公司。除了股市表现亮眼,英伟达 GB300 服务器也传来新消息。同样在 7 月 3 日,美国 CoreWeave 公司在官网宣布,已收到市场上首个基于英伟达最新高端芯片的人工智能服务器系统。随后,戴尔公司专门发布新闻稿对此事进行说明,英伟达公司也在社交媒体上确认了这一事件。据介绍,CoreWeave 此次部署的是基于 PowerEdge XE9712 服务器的戴尔集成机架可扩展系统,因此戴尔公司在 GB300 服务器出货方面拔得头筹。PowerEdge XE9712 服务器是戴尔公司基于 Nvidia GB300 NVL72、专门为推理任务设计的 AI 服务器,具备高效能、高密度加速技术,能提供 50 倍的 AI 推理输出并提升 5 倍的吞吐量,适用于大规模 AI 部署的 LLM 训练和即时推论。戴尔公司总结了 PowerEdge XE9712 服务器的几大优势:- 通过 NVIDIA GB300 NVL72 GPU,为 AI 部署提供高性能、高密度加速。
- 具备实时万亿参数 LLM 推理能力,增强大规模 AI 模型训练。
由此可见,PowerEdge XE9712 服务器包含三大关键技术:GB300 芯片、NVL72 系统和液冷技术。其中,GB300 芯片是英伟达于 2025 年 3 月 18 日 GTC 大会上发布的新一代 AI 芯片,基于 Blackwell Ultra 架构,定位为高性能计算与 AI 推理的旗舰产品。作为前沿架构,NVIDIA Blackwell 架构 GPU 拥有 2080 亿个晶体管,采用专门定制的台积电 4NP 工艺制造。所有 NVIDIA Blackwell 产品均采用双倍光刻极限尺寸的裸片,通过 10TB/s 的片间互联技术连接成一块统一的 GPU。NVIDIA NVLink 交换机芯片可在包含 72 个 GPU 的 NVLink 域(NVL72)中实现 130TB/s 的 GPU 带宽,并通过 NVIDIA SHARP™技术对 FP8 的支持,实现 4 倍于原来的带宽效率。此外,NVIDIA NVLink 交换机芯片能以 1.8TB/s 的惊人互连速度为多服务器集群提供支持。采用 NVLink 的多服务器集群可在计算量增加时同步扩展 GPU 通信,因此 NVL72 支持的 GPU 吞吐量是单个 8 卡 GPU 系统的 9 倍。GB300 NVL72 集成了 72 个 Blackwell Ultra GPU 和 36 个基于 Arm Neoverse 架构的 NVIDIA Grace CPU,理论算力可达 1 万亿次浮点运算 / 秒。GB300 NVL72 还计划在 DGX Cloud 上推出,将通过软件、服务和 AI 专业知识优化性能,以应对不断变化的工作负载。与英伟达上一代 Hopper 架构相比,GB300 NVL72 的用户响应速度提升 10 倍,每瓦吞吐量提高 5 倍,推理模型的推理输出增加 50 倍。戴尔在介绍 PowerEdge 服务器时表示,其液冷服务器采用创新的直接芯片冷却技术,最多可支持 192 个 Nvidia Blackwell Ultra GPU。除 PowerEdge XE9712 服务器外,戴尔与英伟达的合作还涵盖风冷 PowerEdge XE9780 和 XE9785 服务器,以及液冷版本的 XE9780L 和 XE9785L 服务器。分析人士认为,首发设备交付给 CoreWeave 这一情况,凸显出英伟达愈发专注于向企业出租强大计算能力的战略,这些企业需要高性能的英伟达芯片来训练和运行 AI 软件。综上,GB300 服务器出货具有诸多重要意义,是 AI 服务器行业发展的里程碑事件。作为行业首款达到 ExaFLOPS 级别的算力设备,它将超算级算力带入企业级应用场景,重新定义了 AI 推理的效率标准,赋能代理式 AI 的工业化落地、物理模拟的实时化突破以及多模型推理的规模化协同等核心场景。去年 12 月,摩根士丹利(MS)在研究简报中指出,供应链调查显示,铜缆连接器的问题已通过机柜重新设计解决,首批 GB200 已进入最终测试阶段,并于 12 月正常发货。目前,各大服务器厂商多次提及 GB200 服务器已实现规模化放量。以鸿海精密为例,根据该公司一季度财报,2025 年一季度其 AI 服务器收入占比提升至 50%,这主要得益于 3 月底 GB200 的大规模量产。管理层预计二季度 AI 服务器收入环比翻倍,全年目标机柜出货超 3 万台,其中 GB200/GB300 NVL72 约 1 万台。据统计数据显示,得益于 AIGC 技术的快速迭代,2024 年全球加大了对 AI 算力基础设施的投资,全球服务器市场规模达到 2164.0 亿美元。预计 2023-2028 年,该市场将以 18.8% 的年复合增长率保持高速增长,2028 年市场规模将达 3328.7 亿美元,其中 AI 服务器将占据近 7 成市场份额。从采购额来看,2024 年超大规模云服务提供商和企业客户均在加大对 AI 服务器的资源投入,成为服务器市场增长的主力。美系四大 CSP 业者(Microsoft、Google、AWS、Meta)在全球需求中的占比分别达 20.2%、16.6%、16% 及 10.8%,合计超过 6 成,处于全球领先位置。而这些厂商均对英伟达 GB200 服务器和 GB300 服务器有着浓厚兴趣和广泛需求。TrendForce 集邦咨询此前表示,目前供应链对 NVIDIA GB200 寄予厚望,预估 2025 年其出货量有望突破百万颗,占 NVIDIA 高端 GPU 的近 4-5 成。在 GB200 服务器的客户群中,微软表现最为活跃。2024 年第四季度,微软采购 GB200 服务器的订单激增 3-4 倍,超过所有其他云服务商(CSP)的总和。此外,为全面提升 AI 工具的性能,微软将 GB200 订单从之前的 300-500 个机架增至约 1400-1500 个机架,其中约 70% 为 NVL72 型号。GB300 预计将在第四季度开始真正放量。除戴尔外,其他服务器厂商也在抓紧推动 GB300 服务器出货。广达电脑资深副总暨云达总经理杨麒令表示,GB300 目前按计划推进,正在测试并与客户进行验证,预计 9 月出货。此前有传闻称,GB300 服务器可能会让 GB200 服务器成为 “短命版” 旗舰级服务器,但从目前厂商的规划来看,两者之间的升级仍按部就班地进行。值得注意的是,GB300 服务器正式出货后,将带动 1.6T 光模块上量。GB300 的超级芯片集群设计对跨机柜数据传输提出严苛要求,因此跨机柜互联需依赖 1.6T 光模块实现 TB 级数据传输。另外,1.6T 光模块不仅传输速率较 800G 提升 2 倍,功耗也降低 40%,能适配 AI 训练与推理需求。有分析人士称,GB300 服务器将加速 1.6T 光模块的渗透率,2025 年全球需求或达百万只级,头部厂商正通过扩产来应对这一需求。GB300 服务器的正式出货,不仅标志着英伟达在 AI 算力领域的又一次突破,更掀开了全球 AI 基础设施升级的新篇章。作为行业首款达到 ExaFLOPS 级别的企业级算力设备,GB300 NVL72 系统通过 72 颗 Blackwell Ultra GPU 与 36 颗 Grace CPU 的超大规模集成,将单机架算力推向 1 万亿次浮点运算 / 秒的巅峰。