通信行业周专题:从TPU看向未来,如何理解谷歌OCS对光通信市场的影响?

行业及产业 行业研究/行业点评 证券研究报告 通信 2023 年 12 月 09 日 从 TPU 看向未来,如何理解谷歌OCS 对光通信市场的影响? 看好 ——申万宏源通信周专题(20231204-20231208) 证券分析师 李国盛 A0230521080003 ligs@swsresearch.com 刘菁菁 A0230522080003 liujj@swsresearch.com 联系人 李国盛 (8621)23297818× ligs@swsresearch.com 本期投资提示:  本周专题主要讨论 AI 网络环节产业重要变化:1)谷歌发布多模态大模型 Gemini 及新一代 TPU v5p,谷歌 OCS 架构带来增量网络需求;2) AIPC 的大变革,重视算力模组的价值。  (一)近期谷歌发布多模态大模型 Gemini 及新一代 TPU v5p。与 TPU v4 相比,新发布的 TPU v5p 具有约两倍的 FLOPS(每秒浮点运算)和三倍的高内存带宽提升。  OCS 是谷歌自研的数据中心光交换机。通常数据中心内数据交换是光电混合网络,设备之间的主要互联通过光缆/铜缆/光电转换器件、以及交换机 ASIC/Serdes/PCIE/NVLink 等链路实现。与过去在网络层之间多次将信号“从电转换为光再到电”不同,OCS 是一种全光学的连接方案,通过 MEMS 阵列结合光环路器、波分复用光模块实现光路的灵活切换、以达到直接通过光信号组建交换网络的目的(适配于重复可预测的 AI 训练)。  OCS 光交换网络与数据速率和波长无关,即使算力网络基础设施带宽从 100Gb/s 升级到200Gb/s 甚至直到 1.6T 及更高速率,OCS 方案均可在主干层兼容。换言之,在 OCS 方案下光通信网络的升级迭代未必以传统网络芯片的带宽和端口速率为瓶颈,可完全依据流量增长速度和成本经济性进行迭代。  我们对谷歌 OCS 产业影响小结如下,谷歌 OCS 本质是用 MEMS 系统的阵列组反射实现光信号交换,取代原有光电混合交换机体系,整体看:  1)OCS 降低了光模块对交换芯片的依存度,即使带宽从 100G 升级到 800G 甚至直到 1.6T及更高,OCS 方案均可兼容,加速高阶网络的演进;  2)OCS 对光模块的调制性能要求更高,双工、波分复用、低色散、高精度以及消光比/折射率等性能要求极高,提升光模块价值量和进入门槛(可以解释谷歌单模需求),且OCS 交换机的需求台数,与光传输技术密切相关(例如 CWDM4、CWDM8 等);  3)OCS 的 spine 层可以解决集群灵活配置、扩容、灾备、并行等需求,是单模光模块向数据中心侧下沉的潜在增量市场。谷歌 block 内部的 ICI 网络也有向光通信演进的可能性。  4)我们认为,Nvidia 未来也将在网络拓扑结构上着力创新,包括 OCS、新型拓扑结构在内的众多思路,叠加 CPO 等技术路径,或将重构我们目前对通信网络的理解。  (二)AIPC 的大变革,重视算力模组的价值。AI 应用落地的重要场景之一是终端,AIPC是典型代表;而边缘算力与 AIPC 的前提是网络下沉。智能化+定制化,终端景气度边际变化,算力模组成为边缘算力新载体。  (三)相关标的。1)AI 算力网络:中际旭创、新易盛、天孚通信、华工科技、中兴通讯、紫光股份、锐捷网络、源杰科技、盛科通信等。2)AIoT 到 AIPC 边缘算力:广和通、美格智能、移远通信等。3)算网融合:中国移动、中国电信、中国联通等。  风险提示:信息技术迭代产生新的网络通信方案,可能颠覆已有路径或格局。 请务必仔细阅读正文之后的各项信息披露与声明 行业点评 请务必仔细阅读正文之后的各项信息披露与声明 第 2 页 共 12 页 简单金融 成就梦想 1.本周专题 1.1 谷歌 TPU 迭代至 v5,OCS 带来增量网络需求 美国当地时间 12 月 6 日,谷歌发布多模态大模型 Gemini。谷歌 DeepMind 直接宣布,Gemini 是“谷歌最大、最强的人工智能模型”,引发市场广泛关注和探讨。同期谷歌发布新一代 TPU v5p。张量处理器(Tensor Processing Unit,缩写:TPU)是 Google为机器学习定制的专用芯片(ASIC),专为 Google 的深度学习框架 TensorFlow 而设计。它可以视为 DSA 的范畴。 与 TPU v4 相比,新发布的 TPU v5p 具有约两倍的 FLOPS(每秒浮点运算)和三倍的高内存带宽提升。谷歌 TPU v5p 配备 95GB 的 HBM3 内存,内存带宽为 2.765TB/sec,每个 Pod 最多有 8960 个加速核心,并自研搭载 600GB/sec 芯片互联主控,可以更快、更准确地训练 AI 模型。 图 1:谷歌 TPU v5p 与前代的参数对比 资料来源:Google 官网,申万宏源研究 TPU v5p 专为性能、灵活性和规模而设计,可以训练大型 LLM 模型,比上一代 TPU v4快 2.8 倍。此外,借助第二代 SparseCores,TPU v5p 可以训练嵌入密集模型,比 TPU v4快 1.9 倍。 行业点评 请务必仔细阅读正文之后的各项信息披露与声明 第 3 页 共 12 页 简单金融 成就梦想 图 2:TPU v5p 训练速度的相对比较 图 3:TPU v5p 运行费用的相对比较 资料来源:Google 官网,申万宏源研究 资料来源:Google 官网,申万宏源研究 回顾此前 TPUv1 到 v4 部署情况: TPUv1 发布于 2016 年,是谷歌第一代 DNN DSA,能够处理推理任务。 TPUv2 发布于 2017 年 5 月,有两个 TensorCore,风险是相对延迟。近年来,模型训练的规模逐渐增大,所以一种新的改进是添加一个片到片的定制互连结构 ICI (Inter-Core Interconnect)。与 TPUv1 不同,TPUv2 每个芯片有两个 TensorCore。芯片上的全局线不会随着特征尺寸的缩小而缩小 ,因此相对延迟会增加。每个芯片有两个较小的核,以避免单个大型全芯片核的过度延迟。 TPUv3 发布于 2018 年 5 月,改进了带宽和扩展性,例如 HBM 容量和计算单元。在 TPUv2 的基础上微调了设计,采用相同的技术,拥有 2 倍的 MXU 和 HBM 容量,并将时钟频率、内存带宽和 ICI 带宽提高至 1.3 倍。一台 TPUv3 超级计算机可以扩展到 1024 个芯片。 TPUv3 对 AI 训练的精度要求支持增加。其在使用 16 位浮点(bfloat16)与 英伟达Volta GPU 相当。一些扩展到 1024 片芯片的应用程序可以获得 97%-99% 的完美线性加速。 TPUv4 部署于 2020 年,主打可扩展性,但 2023 年才论文发表。风险

立即下载
信息科技
2023-12-10
申万宏源
12页
2.7M
收藏
分享

[申万宏源]:通信行业周专题:从TPU看向未来,如何理解谷歌OCS对光通信市场的影响?,点击即可下载。报告格式为PDF,大小2.7M,页数12页,欢迎下载。

本报告共12页,只提供前10页预览,清晰完整版报告请下载后查看,喜欢就下载吧!
立即下载
本报告共12页,只提供前10页预览,清晰完整版报告请下载后查看,喜欢就下载吧!
立即下载
水滴研报所有报告均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
相关图表
计算机行业历史 PEBand 图 29:计算机行业历史 PBBand
信息科技
2023-12-09
来源:计算机行业大数据系列(四):国内数据库行业需求深度分析,下游多元需求驱动下国产数据库的崛起
查看原文
近年来能源业数字化与智能化政策
信息科技
2023-12-09
来源:计算机行业大数据系列(四):国内数据库行业需求深度分析,下游多元需求驱动下国产数据库的崛起
查看原文
2021 年能源行业数据库销售额(亿元)
信息科技
2023-12-09
来源:计算机行业大数据系列(四):国内数据库行业需求深度分析,下游多元需求驱动下国产数据库的崛起
查看原文
制造行业典型系统及数据库类型分布情况
信息科技
2023-12-09
来源:计算机行业大数据系列(四):国内数据库行业需求深度分析,下游多元需求驱动下国产数据库的崛起
查看原文
我国实时数据库市场规模(亿元)
信息科技
2023-12-09
来源:计算机行业大数据系列(四):国内数据库行业需求深度分析,下游多元需求驱动下国产数据库的崛起
查看原文
Forrester Consulting 对互联网行业数据库使用率调研
信息科技
2023-12-09
来源:计算机行业大数据系列(四):国内数据库行业需求深度分析,下游多元需求驱动下国产数据库的崛起
查看原文
回顶部
报告群
公众号
小程序
在线客服
收起