人工智能行业跟踪报告:英伟达发布新一代GPU架构,NVLink连接技术迭代升级
证券研究报告 事件点评 英伟达发布新一代 GPU 架构,NVLink连接技术迭代升级 ——人工智能行业跟踪报告 [Table_Rating] 增持(维持) [Table_Summary] ◼ 主要观点 事件描述 2024年3月19日,英伟达正式发布Blackwell架构的GPU B200、计算平台HGX B200以及新一代NVLink 5.0连接技术。同时,英伟达基于B200和Grace CPU推出了超级芯片GB200,以及由72张GB200组成的DGX GB200 NVL72超级计算机。 值得关注的是,新一代NVLink连接技术支持单块Blackwell架构的GPU实现1.8TB/s的传输带宽。根据SemiAnalysis的测算,鉴于DGX GB200 NVL72拥有72个OSFP端口,每个端口对应于1个400G或800G光模块,随着GB200数量的增加,网络拓扑结构发生变化,最终GB200对应于800G光模块的数量关系将介于1:2.5到1:3.5之间。 分析与判断 我们认为: (1)以DGX GB200 NVL72为代表的超级计算机,在内部节点间使用铜缆连接,主要是出于降低功耗的考虑,跨机柜连接短期内仍依赖于光收发器。 (2)从生成式AI模型训练需求角度看,跨机柜连接仍为未来主流技术方案,因此数通市场800G光模块需求具备可持续性。 (3)GB200在推理性能上持续优化升级,能够进一步降低生成式AI模型在云侧的推理成本,有助于生成式AI应用在C端落地。 ◼ 投资建议 建议关注: 中际旭创:中高端数通市场龙头,2022年与II-VI并列光模块业务营收全球第一。根据iFinD机构一致预期,截至2024年3月25日,公司2024年的预测PE为32倍,位于近五年的93%分位。 天孚通信:光器件整体解决方案提供商。根据iFinD机构一致预期,截至2024年3月25日,公司2024年的预测PE为53倍,位于近五年的99%分位。 新易盛:光模块领域龙头,成本管控优秀,具备切入增量云计算/AI客户的能力。根据iFinD机构一致预期,截至2024年3月25日,公司2024年的预测PE为42倍,位于近五年的98%分位。 ◼ 风险提示 下游需求不及预期;人工智能技术落地和商业化不及预期;产业政策转变;宏观经济不及预期等。 [Table_Industry] 行业: 计算机 日期: shzqdatemark [Table_Author] 分析师: 刘京昭 SAC 编号: S0870523040005 [Table_QuotePic] 最近一年行业指数与沪深 300 比较 -21%-14%-7%0%7%14%21%28%35%01/2303/2306/2308/2310/2301/24计算机沪深3002024年03月29日 事件点评 请务必阅读尾页重要声明 2 目 录 1 英伟达推出 Blackwell 架构,生成式 AI 训练、推理再加速 ...... 3 2 风险提示 ..................................................................................... 7 图 图 1:HGX B200 计算平台在生成式 AI 推理场景下实时吞吐量大幅上升 ..................................................................... 3 图 2:HGX B200 计算平台在生成式 AI 模型训练场景下训练速率提升明显 .................................................................. 3 图 3:GB200 NVL72 在推理场景下实时吞吐量较 HGX100提升更明显 ...................................................................... 4 图 4:GB200 NVL72 在生成式 AI 模型训练场景下性能有所提升 ................................................................................. 4 图 5:GB200 由铜缆连接 GB200 节点机架与 NVSwitch 机架 .................................................................................... 4 图 6:GB200 使用第五代 NVLink 连接技术增强 GPU 卡间互联能力 ............................................................................. 5 图 7:GB200 和 800G 光模块的数量关系与 H100 类似........ 5 表 表 1:Blackwell 架构 GPU 更注重 FP8 和 FP4 浮点运算 .... 3 表 2:人工智能领域相关公司对比表 ...................................... 6 事件点评 请务必阅读尾页重要声明 3 1 英伟达推出 Blackwell 架构,生成式 AI 训练、推理再加速 2024 年 3 月 19 日,英伟达正式发布 Blackwell 架构的 GPU B200、计算平台 HGX B200 以及新一代 NVLink 5.0 连接技术。同时,英伟达基于 B200 和 Grace CPU 推出了超级芯片 GB200,以及由 72 张 GB200 组成的 DGX GB200 NVL72 超级计算机。 图 1:HGX B200 计算平台在生成式 AI 推理场景下实时吞吐量大幅上升 图 2:HGX B200 计算平台在生成式 AI 模型训练场景下训练速率提升明显 资料来源:NVIDIA,上海证券研究所 资料来源:NVIDIA,上海证券研究所 B200 采用台积电的 4 纳米工艺蚀刻而成,通过 NVLink 5.0 将两个独立制造的裸晶(Die)连接整合,内部共有 2080 亿个晶体管。单个 Blackwell Die 的浮点运算能力相较于 Hopper Die 提高近25%,总性能提升 2.5 倍,在处理 FP4 精度的浮点运算时,性能还能进一步提升至 H100 的 5 倍。 表 1:Blackwell 架构 GPU 更注重 FP8 和 FP4 浮点运算 技术参数 HGX B200 HGX B100 HGX H200 HGX H100 GPU 数量 8-GPU 8-GPU 8-GPU 8-GPU FP32 吞吐量(FLOPS) 18P 14P 8P 8P FP16 吞吐量(FLOPS) 3
[上海证券]:人工智能行业跟踪报告:英伟达发布新一代GPU架构,NVLink连接技术迭代升级,点击即可下载。报告格式为PDF,大小0.65M,页数8页,欢迎下载。
