人工智能行业:AI服务器功率增长使AI芯片电感和AI芯片电容需求持续增长
AI服务器功率增长使AI芯片电感和AI芯片电容需求持续增长证券研究报告行业动态报告发布日期:2025年12月6日本报告由中信建投证券股份有限公司在中华人民共和国(仅为本报告目的,不包括香港、澳门、台湾)提供。在遵守适用的法律法规情况下,本报告亦可能由中信建投(国际)证券有限公司在香港提供。请务必阅读正文之后的免责条款和声明。分析师:王介超wangjiechao@csc.com.cnSAC 编号:S1440521110005分析师:于芳博yufangbo@csc.com.cnSAC编号:S1440522030001分析师:庞佳军pangjiajun@csc.com.cnSAC编号:S1440524110001分析师:覃静qinjing@csc.com.cnSAC编号:S1440524080002分析师:郭衍哲guoyanzhe@csc.com.cnSAC编号:S1440524010001分析师:汪明宇wangmingyubj@csc.com.cnSAC编号:S1440524010004人工智能高速发展,谷歌激起竞争加剧5Gemini 3是Google于2025年11月推出的新一代大模型,Gemini 3 Pro是其旗舰版本。Geimini 3刷新了多项Benchmark的最高分,并在多项任务上较Gemini2.5 Pro得到了大幅提高,并显著领先其他模型。Gemini 3的“深度思考模式”(Deep Think mode)在一些最具挑战性的AI基准测试中表现出色。在测试中,Gemini 3 Deep Think在“人类最终考试”中的表现(未使用工具的情况下达到41.0%)以及在GPQA Diamond测试中的表现(达到93.8%),均超越了Gemini 2.5 Pro。它还在ARC-AGI-2基准测试中取得了45.1%的突破性成绩(启用代码执行),充分展现了其解决新型挑战的能力。Deep Learning Lead和Gemini项目的联合负责人称:推理能力来自改进预训练和后训练,后训练仍然是一片完全的绿地,算法上还有大量进步和改进的空间,看不到任何天花板!资料来源:Gemini,中信建投5谷歌激起竞争加剧:Gemini 3性能大幅提高图:Gemini 3刷新多项benchmark的最高分资料来源:Gemini,中信建投图:ARC-AGI-2测试结果6谷歌激起竞争加剧:全栈AI生态布局,从落后到重回领先2025年11月发布的Gemini 3 Pro,是谷歌时隔8个月后的大版本更新,模型的多模态理解能力和推理能力大幅提升,能够无缝集成分析视频、音频、图像、文字和代码等多种数据格式,在多项测评中均超过OpenAI的GPT-5.1、Grok 4.1等,登顶多项权威测评如Artificial Analysis、LMArena的全球第一。谷歌作为曾经AI领域的领跑者,错失了发布类ChatGPT产品的先机。Gemini的诞生和快速迭代,实现了重回领先者的反击。Google在AI竞赛中具备两大核心优势:一是AI应用生态构建完备,更新后的AI mode搜索引擎把牢流量入口,结合其在移动互联网的强大应用生态如邮箱、地图、视频网站等。二是Google具备垂直领域全方位整合突破的能力,据Artificial Analysis,Google是目前全球唯一一家在算力芯片、基础模型、云推理计算、AI应用方面全栈深度布局的公司。根据SemiAnalysis分析,全球AI工作负载中,NVIDIA GPU占70%,而Google TPU则占据了28.6%,强大的硬件和模型进一步奠定了Google打造AI应用全家桶的坚实基础,形成数据-算力-模型-场景的正向循环。资料来源:google, Artificial Analysis,中信建投资料来源:google, Artificial Analysis,中信建投图:Google是全球唯一一家在AI应用、模型、云推理、硬件实现全栈垂直整合的公司图:Gemini 3 Pro登顶Artificial Analysis大模型榜首7Gemini 3 Pro完全使用谷歌的张量处理单元(TPU)进行训练,摆脱英伟达束缚,给AISC产业注入强心剂。TPU专为处理训练LLM所需的大量计算而设计,配备高带宽内存,能够在训练中处理大型模型和更大的batch size。张量处理单元(TPU)是Google为加速机器学习训练与推理而定制开发的一种ASIC芯片。在训练大型复杂的神经网络模型时,TPU可以最大限度地缩短达到准确率所需的时间。以前在其他硬件平台上需要花费数周时间进行训练的模型,在TPU中只需数小时即可收敛。与GPU相比,TPU采用低精度计算,在几乎不影响深度学习处理效果的前提下大幅降低了功耗、加快运算速度。2025年4月谷歌的Cloud Next大会发布了最新的第七代TPU Ironwood,作为高效的并行处理器,Ironwood在管理大规模计算方面表现出色,并显著减少了数据在芯片内部传输所需的时间,使模型运行得更快、更流畅。更大的集群互联:谷歌借助Ironwood在一个超级Pod中扩展到9,216块芯片,并通过9.6Tb/s的通信速度实现芯片间互连。这种强大的连接性使得数千个芯片能够快速通信,并访问惊人的1.77PB共享高带宽内存(HBM),克服了即使是要求最苛刻的模型也会遇到的数据瓶颈。这种效率显著减少了训练和运行尖端AI服务所需的计算时间和能源。资料来源:微软,中信建投谷歌激起竞争加剧:仅靠TPU训出全球最强模型资料来源:微软,中信建投图:TPU7 Ironwood芯片图:Ironwood 集群直接连接 9,216 个 Ironwood TPU形成一个单一域AI服务器功率增长使AI芯片电感和AI芯片电容需求持续增长11AI计算功率大幅提升:单卡功率及服务器机柜功率快速提升英伟达的B系列芯片和NVL72机柜热设计功率TDP(Thermal Design Power)飙升:H100的TDP最高为700W,B200的TDP最高为1000w/1200W,增长约5-7成;H100每个机架的TDP约为40kW,B系列机架的TDP约为120kW,功率增约200%-500%。为了应对更大参数量模型的训练,机柜式方案设计已经成为主流。资料来源:英伟达官网,中信建投图:H100机箱与B200机箱的TDP对比(芯片-计算单元-机箱)H100芯片最高配置下TDP为700W。B200芯片最高配置下TDP为1200W。H100机箱一般由4个DGX H100计算平台组成,TDP为6200*4=24.8kW。考虑到通信与网络,总计约为40kW。在不考虑电源分配,网络通信互联等单位的TDO情况下,一整个GB200 NVL72机箱TDP为104kW。在考虑NVSwitch和交换机等辅助功能的情况下,总计TDP为120kW.Bianca主板内置2块B200芯片和1块Grace CPU(TDP 500W),总计TDP为2400W+500W=2900W× 𝟐× 𝟐× 𝟏𝟖GB200计算托盘内含2块Bianca主板总计TDP为5800W× 𝟏DGX H100 SXM上装有1块H100芯片。× 𝟖× 𝟒DGX
[中信建投]:人工智能行业:AI服务器功率增长使AI芯片电感和AI芯片电容需求持续增长,点击即可下载。报告格式为PDF,大小5.43M,页数38页,欢迎下载。



