计算机行业专题研究:ChatGPT服务器,深度拆解

免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。 1 证券研究报告 计算机 ChatGPT 服务器:深度拆解 华泰研究 计算机 增持 (维持) 研究员 谢春生 SAC No. S0570519080006 SFC No. BQZ938 xiechunsheng@htsc.com +(86) 21 2987 2036 联系人 林海亮 SAC No. S0570122060076 linhailiang@htsc.com +(86) 21 2897 2228 行业走势图 资料来源:Wind,华泰研究 重点推荐 股票名称 股票代码 目标价 (当地币种) 投资评级 浪潮信息 000977 CH 44.06 买入 景嘉微 300474 CH 96.74 买入 资料来源:华泰研究预测 2023 年 2 月 25 日│中国内地 专题研究 GPT 模型热潮有望带动 ChatGPT 服务器产业投资机遇 我们认为,随着国内互联网厂商陆续开展 ChatGPT 类似产品研发,GPT 大模型训练热潮或将带来底层算力需求快速释放。GPT 模型算力需求分为训练+推理两类,产生于预训练、Finetune、日常运营三大场景。据我们测算,ChatGPT 一次预训练需要 3640 PFlop/s-day、单月运营需要算力 7034.7 PFlop/s-day。复盘服务器产业发展历程来看,我们认为 AI 服务器更适合承接 GPT 大模型算力需求。拆解 AI 服务器来看,主要硬件成本来自算力芯片,且以 GPU 为主。我们认为,随着 GPT 热潮带动算力需求逐步释放,国内ChatGPT 服务器产业有望迎来发展机遇,建议关注:浪潮信息、景嘉微。 ChatGPT:大模型+Transformer 架构,带动并行计算需求 ChatGPT 发布之后,引发了全球范围的关注和讨论,百度、阿里、京东等国内各大厂商相继宣布 GPT 模型开发计划。从 AI 模型应用场景来看,主要包括推理和训练两类。从实践场景来看,算力需求场景包括预训练、Finetune及日常运营。以 GPT-3 模型为例,随着模型朝更大体量的方向演进,一次训 练 所 需 的 计 算 量 最 高 达 3640PFlop/s-day , 单 月 运 营 算 力 7034.7 PFlop/s-day,对应成本约 889 万美元。我们认为,在 Transformer 架构加持下,GPT 模型得以高效地完成大规模参数计算,随着模型持续迭代、参数体量不断提升,并行计算需求有望进一步释放。 ChatGPT 需要的服务器:AI 训练型服务器+AI 推理型服务器 我们认为,计算架构的变化是推动服务器技术演进的关键变量。从计算场景来看,随着计算架构从 PC 到云计算,到边缘计算,再到 AI 训练,服务器需求也在发生相应变化。复盘主流服务器发展历程来看:1)通用服务器:以单机性能提升为迭代目标;2)云计算服务器:主要为承载大规模数据处理需求而生,以 IaaS 模式带来服务器商业模式的变革;3)边缘服务器:主要解决实时性、带宽成本、安全性等问题;4)AI 服务器:专为人工智能训练设计,包括训练型和推理型,多采用大规模并行计算以提升效率。 ChatGPT 需要的芯片:CPU+GPU、FPGA、ASIC 从产业需求来看,AI 大模型训练需要大算力支持,智能算力需求释放有望带动 AI 服务器放量。目前国产 AI 服务器厂商主要包括浪潮信息、华为、新华三等,21H1 国产 AI 服务器厂商占全球市场份额超 35%。拆解 AI 服务器来看,主要硬件成本来自算力芯片,且以 GPU 为核心。目前海外主流 AI GPU芯片包括英伟达 H00、A100、V100 等,受美国出口限制政策影响,目前国内在先进算力方面主要采购英伟达 A800 或更低端版本作为替代方案。考虑到部分国产 AI GPU 如华为昇腾在 FP16 浮点计算性能上已经实现对英伟达A100 的加速追赶,未来随着国产生态打磨,AI GPU 国产替代有望加速。 投资建议:关注 ChatGPT 服务器产业链 我们认为,随着 GPT 热潮带动算力需求逐步释放,国内 AI 服务器产业有望迎来发展机遇,建议关注核心环节龙头。目前国内 AI 服务器产业链公司主要包括:1)能够采购到海外高性能芯片的厂商:浪潮信息等;2)采用海光/寒武纪芯片的厂商:中科曙光;3)采用华为昇腾芯片的厂商:拓维信息等; 4)底层芯片供应商:海光信息、寒武纪、景嘉微等。 风险提示:宏观经济波动;下游需求不及预期;算力需求测算与实际不符。 (31)(22)(13)(3)6Feb-22Jun-22Oct-22Feb-23(%)计算机沪深300 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。 2 计算机 AI 服务器:ChatGPT 训练热潮有望带动 AI 服务器需求 ChatGPT:大模型+Transformer 架构,带动并行计算需求 大厂布局 ChatGPT 类似产品,或将带来底层算力需求。ChatGPT 发布之后,引发了全球范围的关注和讨论,国内各大厂商相继宣布 GPT 模型开发计划。据各公司官网,2023 年 2月 7 日,百度宣布将推出 ChatGPT 类似产品“文心一言”,预计今年 3 月展开内测;2 月 8日阿里宣布阿里版 ChatGPT 正在研发中,目前处于内测阶段;2 月 9 日,字节跳动旗下AI Lab 宣布正在开展 ChatGPT 和 AIGC 相关研发,未来将为 PICO 提供技术支持;2 月 10日,京东旗下言犀人工智能平台推出产业版 ChatGPT—“ ChatJD”。我们认为,随着国内互联网厂商陆续开展 ChatGPT 类似产品研发,GPT 大模型训练热潮或将带来底层算力需求快速释放。 AI 模型对算力的需求主要体现在训练和推理两个层面。当前主流的人工智能算法通常可分为“训练”和“推理”两个阶段。据 IDC 数据,2021 年中国人工智能服务器工作负载中,57.6%的负载用于推理,42.4%用于模型训练。据 IDC 预计,到 2026 年 AI 推理的负载比例将进一步提升至 62.2%。具体来看: 1)训练阶段:基于充裕的数据来调整和优化人工智能模型的参数,使模型的准确度达到预期。对于图像识别、语音识别与自然语言处理等领域的复杂问题,为了获得更准确的人工智能模型,训练阶段常常需要处理大量数据集、做反复的迭代计算,耗费巨大的运算量。 2)推理阶段:训练阶段结束以后,人工智能模型已经建立完毕,已可用于推理或预测待处理输入数据对应的输出(例如给定一张图片,识别该图片中的物体),此过程被称为推理阶段。推理阶段对单个任务的计算能力要求不如训练那么大,但是由于训练出来的模型会多次用于推理,因此推理运算的总计算量也相当可观。 图表1: 中国人工智能服务器工作负载及预测 资料来源:IDC、华泰研究 ChatGPT 算力需求场景包括预训练、Finetune 及日常运营。从 ChatGPT 实际应用情况来看,从训练+推理的框

立即下载
电子设备
2023-03-09
华泰证券
23页
1.97M
收藏
分享

[华泰证券]:计算机行业专题研究:ChatGPT服务器,深度拆解,点击即可下载。报告格式为PDF,大小1.97M,页数23页,欢迎下载。

本报告共23页,只提供前10页预览,清晰完整版报告请下载后查看,喜欢就下载吧!
立即下载
本报告共23页,只提供前10页预览,清晰完整版报告请下载后查看,喜欢就下载吧!
立即下载
水滴研报所有报告均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
相关图表
图表 10 移动版 Bing 语音接入功能
电子设备
2023-03-09
来源:计算机行业:ChatGPT,巨头都在干什么?
查看原文
图表 1 国内外科技公司 ChatGPT 技术布局及相关应用场景
电子设备
2023-03-09
来源:计算机行业:ChatGPT,巨头都在干什么?
查看原文
图 77.2017-2022Q1-3 博迁新材毛利率图 78.2017-2022Q1-3 博迁新材加权净资产收益率
电子设备
2023-03-09
来源:金属新材料行业:需求多点开花,未来海阔天空
查看原文
图 75.2017-2022Q1-3 博迁新材营业收入图 76.2017-2022Q1-3 博迁新材归母净利润
电子设备
2023-03-09
来源:金属新材料行业:需求多点开花,未来海阔天空
查看原文
博迁新材主要产品
电子设备
2023-03-09
来源:金属新材料行业:需求多点开花,未来海阔天空
查看原文
图 72.2017-2022Q1-3 斯瑞新材毛利率图 73.2017-2022Q1-3 斯瑞新材加权净资产收益率
电子设备
2023-03-09
来源:金属新材料行业:需求多点开花,未来海阔天空
查看原文
回顶部
报告群
公众号
小程序
在线客服
收起