人工智能行业:AI发展的长周期思考,前景广阔,预期乐观

AI发展的长周期思考前景广阔,预期乐观证券研究报告·行业深度报告发布日期:2025年8月15日本报告由中信建投证券股份有限公司在中华人民共和国(仅为本报告目的,不包括香港、澳门、台湾)提供。在遵守适用的法律法规情况下,本报告亦可能由中信建投(国际)证券有限公司在香港提供。请务必阅读正文之后的免责条款和声明。阎贵成SAC 执证编号:S1440518040002SFC 中央编号:BNS315刘永旭SAC 执证编号:S1440520070014SFC 中央编号:BVF090朱源哲SAC 执证编号:S1440525070002目录01. AI渗透率仍较低,大模型发展仍处于中初级阶段02. 大模型或引爆产业互联网、升级移动互联网,未来预期乐观03. AI带动的资本开支长期空间广阔,持续性强04. 投资观点1.1.4 目前美国企业AI使用率仅9.4%(续) 目前,美国企业AI使用率最高的州为华盛顿州,其AI使用率仍不超过20%。 不同行业的企业中,美国的信息企业AI使用率最高,但仍不超过25%。图表:美国不同州的企业AI使用率图表:美国不同行业的企业AI使用率资料来源:Motley Fool,Census Bureau,中信建投91.3.3 目前尚未有生成式AI应用达到年度IAP收入10亿美元的里程碑 2014年-2024年,全球共有26款应用达成了年度IAP收入10亿美元的里程碑,尚未有生成式AI应用达成此项成就。图表:首次达到年度全球应用内购买收入10亿美元的应用资料来源:Sensor Tower,中信建投*中国仅含iOS,收入为包括应用商店抽成在内的总收入171.5.1 大部分企业仍处于对大模型的探索开发阶段 据2024年IDC大模型收益曲线,大部分企业仍处于进入大模型服务规模化投入的阶段,需要整体架构的开发和服务解决方案的落地和时间验证,企业所获得的收益并不明显,随着大模型的部署上线,带来的收益有望随之增长。图表:大模型收益曲线资料来源:火山引擎,IDC,中信建投221.5.2 多数应用场景中大模型落地仍处于偏早期阶段资料来源:火山引擎,IDC,中信建投232.1 AI推理成本大幅下降,AI应用消耗Tokens数量激增 AI推理成本随时间推移快速下降,单位美元可获取的AI性能大幅提高。 在MMLU测试中达到GPT-3.5水平(64.8分)的模型,其推理成本从2022年11月的每百万tokens 20美元降至2024年10月的0.07美元(Gemini-1.5-Flash-8B),约1.5年内下降超280倍。 在GPQA上得分超过50%的模型的成本也呈现出类似的趋势,推理成本从2024年5月的每百万tokens 15美元降至同年12月的0.12美元(Phi 4)。据Epoch AI,根据任务不同,大语言模型的推理成本正以每年9-900倍的速度下降。图表:AI推理成本大幅下降(美元/百万tokens)资料来源:《2025年人工智能指数报告》,中信建投262.1 AI推理成本大幅下降,AI应用消耗Tokens数量激增(续) 2025年5月Google I/O开发者大会上,谷歌表示目前系统每月处理的Tokens数量激增,从去年的9.7万亿增加到现在的480万亿,增长将近50倍。2025年7月,谷歌宣布目前每月处理超980万亿Tokens,较两月前翻倍增长。 以豆包为例,去年12月中旬,豆包日均Tokens使用量已超过4万亿,较七个月前首次发布时增长了33倍;截至2025年3月底,豆包大模型日均tokens 调用量已超过12.7万亿,是2024年12月的3倍,是一年前刚发布时的106倍;截至2025年5月底,其日均Tokens使用量超过16.4万亿,同比增长137倍。 Tokens数量的激增,意味着前期投资的算力正在被有效使用,tokens的持续增长意味着未来的算力需求依然强劲。图表:谷歌大模型月度Tokens数量(万亿)图表:豆包大模型日均Tokens数量资料来源:Google,字节,中信建投9.74809800200400600800100012002024年4月2024年5月2024年6月2024年7月2024年8月2024年9月2024年10月2024年11月2024年12月2025年1月2025年2月2025年3月2025年4月2025年5月2025年6月2025年7月约1年增长500万亿2个月增长500万亿273.5 大模型时代,AI训练算力需求快速增长 据EPOCH AI数据,深度学习出现之前(1950年-2010年),用于标志性机器学习模型训练的算力约每20个月翻一倍,基本符合摩尔定律。进入AI大模型时代后,随着模型参数量的增长、训练数据集规模的扩大,用于标志性AI模型训练的算力约每5个月翻一倍(每年增长约4.6倍),远远超越摩尔定律。AI带动了巨大的算力投资需求。图表:AI训练算力需求快速增长(FLOP)资料来源:EPOCH AI,中信建投393.6 模型参数量与训练算力、推理算力密切相关根据OpenAI论文,在一个参数量为N的神经网络中,训练过程的整体运算量大致为6N,推理过程的整体运算量大致为2N 。ChatGPT参 数量为1750亿, 训练参 数量为3000亿token ,整 体训练计 算量 = 6* 1750*3000*1016flops=3.15*1023 flops;单次推理的计算量= 2*1750*108 flops=3.5*1011 flops。GPT-4的参数量预计为1万亿-1.8万亿,训练计算量预计是ChatGPT的40-100倍,推理计算量是ChatGPT的6-10倍。图表:神经网络的训练过程和推理过程图表:GPT4训练和推理计算量相比于ChatGPT显著上升资料来源:OpenAI,中信建投参数量=0.0140.986ChatGPTGPT-41750亿1万亿-1.8万亿训练计算量40-100x推理计算量6-10x训练计算量3.15*1023 flops推理计算量3.5*1011 flops403.7 推理模型与Agent消耗的Token在持续快速增长深度推理过程处理需求指数级增长,单用户查询的Token处理量预计两年内增加100倍。综合考虑Agent从规划到执行的完整闭环,我们认为Agent对Token的消耗主要源于以下方面:1)长上下文窗口对Token的消耗量大:Agent从对任务的拆解、规划、编排、执行过程需要对上下文信息有更强的记忆能力,对应更多Token消耗;2)多Agent/工具通信协同会带来Token明显增长:Agent在执行任务的过程中往往需要调用其它AI工具或Agent,其对已有信息的通信过程会造成Token用量的快速积累;3)验证模块对Token的大量消耗:Agent通常会设计验证模块以确保执行任务的准确性,当Agent执行完成每个关键步骤后,会对结果进行检查验证,判断是否符合预期或任务要求,从而造成重复的额外计算资源消耗;4)多模态场景Token消耗量更高:当前Agent落地场景往往会涉及文本、语言、图像、视频等各种模态的语料,从而综合规划出最佳解决方案,带来更高的Token消耗量。图表:推理模型算力需求显著提升

立即下载
信息科技
2025-08-26
中信建投
51页
3.46M
收藏
分享

[中信建投]:人工智能行业:AI发展的长周期思考,前景广阔,预期乐观,点击即可下载。报告格式为PDF,大小3.46M,页数51页,欢迎下载。

本报告共51页,只提供前10页预览,清晰完整版报告请下载后查看,喜欢就下载吧!
立即下载
本报告共51页,只提供前10页预览,清晰完整版报告请下载后查看,喜欢就下载吧!
立即下载
水滴研报所有报告均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
相关图表
一张图看懂HBM搭载NVIDIA H100 Hopper GPU器件结构及相关产业链
信息科技
2025-08-26
来源:电子行业:深度剖析HBM千亿蓝海,AI算力激战下供需新格局
查看原文
IDC预测2025年全球AI手机出货量将达4.05亿部图:Canalys预测2025年全球AI PC出货量将超1亿台图:TrendForce预测2025年全球AI服务器出货量将达214万台
信息科技
2025-08-26
来源:电子行业:深度剖析HBM千亿蓝海,AI算力激战下供需新格局
查看原文
从HBM迭代到HBM3E:堆叠层数增至12层,单颗容量已增至36GB,HBM带宽持续提升图:HBM当前进展:HBM3E 12hi已量产并成为当前主流,下一代HBM4 16hi或有望26年实现
信息科技
2025-08-26
来源:电子行业:深度剖析HBM千亿蓝海,AI算力激战下供需新格局
查看原文
HBM供给端测算:预计2026年全年HBM供给容量将达43.25亿GB(YoY+47%),以每颗HBM3e-12Hi提供36GB计算,供给量至少高达1.2亿颗。
信息科技
2025-08-26
来源:电子行业:深度剖析HBM千亿蓝海,AI算力激战下供需新格局
查看原文
据TrendForce数据,12hi HBM产品为2025年HBM厂商供应主力产品,占比预计达69%图:据TrendForce数据,2025年HBM3E占比预计将大幅提升,有望超过95%
信息科技
2025-08-26
来源:电子行业:深度剖析HBM千亿蓝海,AI算力激战下供需新格局
查看原文
英伟达历代架构对HBM颗数的需求量:从6颗→8颗→16颗不断推高HBM颗数
信息科技
2025-08-26
来源:电子行业:深度剖析HBM千亿蓝海,AI算力激战下供需新格局
查看原文
回顶部
报告群
公众号
小程序
在线客服
收起