TMT行业深度报告:算力大时代,AI算力产业链全景梳理
本报告由中信建投证券股份有限公司在中华人民共和国(仅为本报告目的,不包括香港、澳门、台湾)提供。在遵守适用的法律法规情况下,本报告亦可能由中信建投(国际)证券有限公司在香港提供。同时请务必阅读正文之后的免责条款和声明。 证券研究报告·行业深度报告 算力大时代,AI 算力产业链全景梳理 核心观点 生成式 AI 取得突破,我们对生成式 AI 带来的算力需求做了上下游梳理,并做了交叉验证,可以看到以 ChatGPT 为代表的大模型训练和推理端均需要强大的算力支撑,产业链共振明显,产业链放量顺序为:先进制程制造->以 Chiplet 为代表的 2.5D/3D 封装、HBM->AI 芯片->板卡组装->交换机->光模块->液冷->AI 服务器->IDC 出租运维。综合来看,大模型仍处于混战阶段,应用处于渗透率早期,AI 板块中算力需求增长的确定性较高,在未来两年时间内,算力板块都将处于高景气度阶段,重点推荐 AI 算力产业链各环节相关公司。 摘要 生成式 AI 取得突破,实现了从 0 到 1 的跨越,以 ChatGPT为代表的人工智能大模型训练和推理需要强大的算力支撑。自2022 年底 OpenAI 正式推出 ChatGPT 后,用户量大幅增长,围绕ChatGPT 相关的应用层出不穷,其通用性能力帮助人类在文字等工作上节省了大量时间。同时在 Transformer 新架构下,多模态大模型也取得新的突破,文生图、文生视频等功能不断完善,并在广告、游戏等领域取得不错的进展。生成式 AI 将是未来几年最重要的生产力工具,并深刻改变各个产业环节,围绕生成式 AI,无论是训练还是推理端,算力需求都将有望爆发式增长。 训练和推理端 AI 算力需求或几何倍数增长。首先是训练侧,参考 OpenAI 论文,大模型训练侧算力需求=训练所需要的 token数量*6*大模型参数量。可以看到从 GPT3.5 到 GPT4,模型效果越来越好,模型也越来越大,训练所需要的 token 数量和参数量均大幅增长,相应的训练算力需求也大幅增长。并且,与 GPT4 相关的公开论文也比较少,各家巨头向 GPT4 迈进的时候,需要更多方向上的探索,也将带来更多的训练侧算力需求。 根据我们的推算,2023 年-2027 年,全球大模型训练端峰值算力需求量的年复合增长率有望达到 78.0%,2023 年全球大模型训练端所需全部算力换算成的 A100 芯片总量可能超过 200 万张。其次是推理侧,单个 token 的推理过程整体运算量为 2*大模型参数量,因此大模型推理侧每日算力需求=每日调用大模型次数*每人平均查询 Token 数量*2*大模型参数量,仅以 Google 搜索引擎为例,每 维持 强于大市 武超则 wuchaoze@csc.com.cn 010-85156318 SAC 编号:s1440513090003 SFC 编号:BEM208 阎贵成 yanguicheng@csc.com.cn 010-85159231 SAC 编号:S1440518040002 SFC 编号:BNS315 刘双锋 liushuangfeng@csc.com.cn SAC 编号:s1440520070002 SFC 编号:BNU539 金戈 jinge@csc.com.cn 010-85159348 SAC 编号:S1440517110001 SFC 编号:BPD352 于芳博 yufangbo@csc.com.cn 010-86451607 SAC 编号:S1440522030001 崔世峰 cuishifeng@csc.com.cn SAC 编号:s1440521100004 刘永旭 liuyongxu@csc.com.cn 010-86451440 SAC 编号:S1440520070014 杨伟松 yangweisong@csc.com.cn SAC 编号:S1440522120003 范彬泰 fanbintai@csc.com.cn SAC 编号:S1440521120001 发布日期: 2023 年 06 月 14 日 市场表现 相关研究报告TMT 行业深度报告 TMT 请参阅最后一页的重要声明 交换机:与传统数据中心的网络架构相比,AI 数据网络架构会带来更多的交换机端口的需求。交换机具备技术壁垒,中国市场格局稳定,华为与新华三(紫光股份)两强争霸,锐捷网络展现追赶势头,建议重点关注。 光模块:AI 算力带动数据中心内部数据流量较大,光模块速率及数量均有显著提升。训练侧光模块需求与GPU 出货量强相关,推理侧光模块需求与数据流量强相关,伴随应用加速渗透,未来推理所需的算力和流量实际上可能远大于训练。目前,训练侧英伟达的 A100 GPU 主要对应 200G 光模块和 400G 光模块,H100 GPU 可以对应 400G 或 800G 光模块。根据我们的测算,训练端 A100 和 200G 光模块的比例是 1:7,H100 和 800G 光模块的比例是 1:3.5。800G 光模块 2022 年底开始小批量出货,2023 年需求主要来自于英伟达和谷歌。在 2023 年这个时间点,市场下一代高速率光模块均指向 800G 光模块,叠加 AIGC 带来的算力和模型竞赛,我们预计北美各大云厂商和相关科技巨头均有望在 2024 年大量采购 800G 光模块,同时 2023 年也可能提前采购。建议关注中际旭创、天孚通信、新易盛、华工科技、源杰科技、太辰光、光迅科技、光库科技、中瓷电子、剑桥科技、博创科技、联特科技、德科立、仕佳光子等。 光模块上游——光芯片:以 AWG、PLC 等为代表的无源光芯片,国内厂商市占率全球领先。以 EEL、VCSEL、DFB 等激光器芯片、探测器芯片和调制器芯片为代表的有源光芯片是现代光学技术的重要基石,是有源光器件的重要组成部分。以源杰科技、光库科技为代表的国内光芯片厂商不断攻城拔寨,在多个细分产品领域取得了年调用次数至少超过 2 万亿,一旦和大模型结合,其 AI 算力需求将十分可观。随着越来越多的应用和大模型结合,推理侧算力需求也有望呈现爆发增长势头。根据我们的推算,2023 年-2027 年,全球大模型云端推理的峰值算力需求量的年复合增长率有望高达 113%。 算力产业链价值放量顺序如下:先进制程制造->以 Chiplet 为代表的 2.5D/3D 封装、HBM->AI 芯片->板卡组装->交换机->光模块->液冷->AI 服务器->IDC 出租运维。 先进封装、HBM:为了解决先进制程成本快速提升和“内存墙”等问题,Chiplet 设计+异构先进封装成为性能与成本平衡的最佳方案,台积电开发的 CoWoS 封装技术可以实现计算核心与 HBM 通过 2.5D 封装互连,因此英伟达 A100、H100 等 AI 芯片纷纷采用台积电 CoWos 封装,并分别配备 40GB HBM2E、80GB 的 HBM3 内存。全球晶圆代工龙头台积电打造全球 2.5D/3D 先进封装工艺标杆,未来几年封装市场增长主要受益于先进封装的扩产。先进封装市场的快速增长,有望成为国
[中信建投]:TMT行业深度报告:算力大时代,AI算力产业链全景梳理,点击即可下载。报告格式为PDF,大小14.79M,页数99页,欢迎下载。
