通信行业点评:基于GPT4.0模型的通信基础设施需求测算
请务必阅读正文之后的免责声明及其项下所有内容证券研究报告 | 2023年03月28日超 配1行业点评基于 GPT 4.0 模型的通信基础设施需求测算 公司研究·公司快评 通信 投资评级:超配(维持评级)证券分析师:马成龙021-60933150machenglong@guosen.com.cn执证编码:S0980518100002证券分析师:付晓钦0755-81982929fuxq@guosen.com.cn执证编码:S0980520120003联系人:袁文翀021-60375411yuanwenchong@guosen.com.cn事项:近期关于 GPT 模型的更新和进展不断,2022 年 12 月 Open AI 推出的基于 GPT3.5 模型的 chatgpt 应用在发布 2 个月就拥有了 1 亿用户,短短 3 个多月后,2023 年 3 月 14 日 Open AI 便发布了多模态 GPT 4.0 大模型,相较于 GPT 3.5 模型,GPT 4.0 模型支持图文回答并实现了回答度的大幅提升。3 月 25 日,ChatGPT再次功能升级实现了对插件的初始支持,帮助 ChatGPT 访问最新信息、运行计算或使用第三方服务。国内,百度发布了文心一言大模型,华为盘古大模型也将迎来发布,行业催化不断。应用层面的快速进展会直接带动以服务器-交换机-光模块为代表的硬件基础设施的需求提升。国信通信观点:我们尝试从硬件基础设施角度对于当前以 Chatgpt 为代表的 AI 应用需求带来的硬件的弹性进行测算,并得到以下几个重要结论:(1)在 AI 集群数据中心网络架构中,服务器:交换机:光模块对应比例为=1:1.2:11:4.;(2)短维度:从当下 GPT 模型一次性角度测算,服务器、交换机、光模块的市场弹性分别为 15%、5%、3%;(3)长维度:下游需求亿级别大规模响应角度测算,服务器、交换机、光模块的市场弹性分别为 65%、19%、10%。投资建议:以 Chatgpt 为代表的 AI 应用正在得到快速发展,并进行着快速迭代,进而有望赋能多行业、多样化新型应用落地,提升行业效率。软端的快速发展离不开硬件基础设备的保障,因此 AI 数据中心内部的各类的硬件基础设施环节有望充分受益 AI 行业进步带来的需求提升:建议重点关注国内 ICT 领先企业【紫光股份】、【浪潮信息】、【锐捷网络】、【中兴通讯】、【菲菱科思】;光模块及光器件环节【中际旭创】、【天孚通信】、【新易盛】;IDC 温控企业【英维克】、【申菱环境】;IDC 电源端企业:【科华数据】、【科士达】;第三方 IDC【奥飞数据】;建议关注:【同飞股份】、【佳力图】。评论: 基于英伟达 AI 网络架构硬件需求比例:服务器:交换机:光模块=1:1.2:11.4由于当前大部分 AIGC 模型都是基于英伟达方案来部署,我们从英伟达的 AI 集群模型架构进行拆解。对于较大的 AI 数据中心集群,一般可多达几千台 AI 服务器的需求,在部署方面会拆分成一个个基本单元进行组件,英伟达对应的一个基本单元为 SuperPOD。根据 SuperPOD 公开信息:一个标准的 SuperPOD 由 140 台 DGX A100 GPU 服务器、HDR InfiniBand 200G网卡和 170 台 NVIDIA Quantum QM8790 交换机构建而成,其中交换机速率为 200G,每个端口数为 40 个。请务必阅读正文之后的免责声明及其项下所有内容证券研究报告2图1:英伟达 SuperPOD 基本结构资料来源:英伟达,国信证券经济研究所整理网络结构上,英伟达采用 Infinband 技术(“无限带宽”技术,简称 IB)和 fat tree(胖树)网络拓扑结构,和传统的数据中心的区别在于,在 IB fat tree 结构下,使用的交换机数量更多,且因为每个节点上行下行的端口数完全一致,使得该网络是是无收敛带宽的,每个端口可采用同样速率的光模块。图2:传统数据中心网络拓扑结构图3:Fat tree 网络拓扑结构资料来源:CSDN,国信证券经济研究所整理资料来源:CSDN,国信证券经济研究所整理光模块用量测算:我们从线缆角度测算光模块需求,一个 SuperPOD 170 个交换机,每个交换机有 40 个端口,最简单方式上下个 70 台服务器,依次端口互联(上下 1:1 连接)对应的线缆需求为 40×170/2=3400根,但是由于实际网络拓扑结构交换价不是该情况,连接情况更加复杂且会分为三层结构,因此线缆数需求有所提升,我们假设上升至 4000 根线缆需求。线缆的需求分为三种,第一种用在机柜内部,互联距离 5m 以内,常用需求为铜缆,不需要光模块;第二类互联距离为 10m 以内,可以采用 AOC(有源光纤)连接,也不需要光模块;第三类,带光模块的光纤,单根需求为 2 个光模块。考虑到 10m 以内的连接占据多数,我们假设铜缆:AOC:光模块光纤比例=4:4:2.光模块需求=4000*0.2*2=1600 个。请务必阅读正文之后的免责声明及其项下所有内容证券研究报告3对于一个 SuperPod,服务器:交换机:光模块的用量比例=140:170:1600=1:1.2:11.4. 应用层面:单 GPT4.0 模型对于服务器需求用量测算从用户使用角度来测算,我们对于服务器算力的测算受大模型参数,日活人数,每日每人提问等多因素影响。在 ChatGPT 中,一个 token 通常指的是响应请求所需的最小文本单位,一般一个 30 词的提问大约对应 40个 token,推理是 token 的算力调用是 2N。对应模型算力的需求我们分摊在一天 24h 的每一秒。服务器用量 =2 ∗ 模型参数算力利用率 ∗ 时间分摊 ∗ 单台服务器算力× 峰值需求倍数基于以下假设,我们可得到对应一个在 1 亿日活的应用需要的 AI 服务器的需求约为 1.5 万台。表1:单 GPT4.0 服务器用量测算假设参数详情模型 FLOPS 利用率假设 20%(可提升)峰值利用是平均算力5 倍单台 A100 服务器的算力5 PTOPS模型参数(GPT 4.0)1 万亿+用户月活(亿)1 亿人次日活假设每人每日提问(字)1000 词测算结果A100 服务器用量需求约为 1.5 万台资料来源:国信证券经济研究所整理 弹性测算一:现有采购部署层面弹性测算(基础投入维度)角度 1 我们选择从现有完成一个类似 GPT4.0 入门级别要求的需求假设去测算硬件基础设施层面需求。假设 1:结合现有各类公开数据,完成 ChatGPT4.0(训练+推理)需要至少 3 万张英伟达 A100 卡的算力投入,对应 3750 台 A100 的 DGX 服务器。假设 2:全球假设国内和海外有潜在 20 家公司可能按照此规模进行测投入。假设 3:网络结构比例按照单个 SuperPOD 方式部署,即服务器:交换机:光模块的用量比例=1:1.2:11.4。假设 4:服务器价格参考英伟达价格,为 20 万美元;交换价结合 Mellanox 售价,假设单价为 2w 美金,光模块根据交换机速率,现在主流为 200G,假设售价为 250 美金。
[国信证券]:通信行业点评:基于GPT4.0模型的通信基础设施需求测算,点击即可下载。报告格式为PDF,大小1.39M,页数7页,欢迎下载。
