人工智能行业:2025年人工智能十大发展趋势
2025年人工智能十大发展趋势证券研究报告行业简评报告发布日期:2025年1月27日分析师:武超则wuchaoze@csc.com.cnSAC 编号:s1440513090003SFC 编号:BEM208分析师:于芳博yufangbo@csc.com.cnSAC编号:S1440522030001分析师:庞佳军pangjiajun@csc.com.cnSAC 编号:S1440524110001本报告由中信建投证券股份有限公司在中华人民共和国(仅为本报告目的,不包括香港、澳门、台湾)提供。在遵守适用的法律法规情况下,本报告亦可能由中信建投(国际)证券有限公司在香港提供。请务必阅读正文之后的免责条款和声明。核心观点 核心观点:大语言模型发展进入深度推理阶段,通用人工智能愈行愈近,AI应用进入爆发前夜。站在当前这一重要的历史节点,我们从技术、应用、能源三个维度展望了人工智能的未来发展,其中技术是源动力,应用是牵引力,能源是支撑力。对未来的展望中,我们提出推理计算、合成数据、缩放法则、超级智能体、具身智能、AI4Science、端侧创新、自动驾驶、人工智能+、能源需求十个方面的重要发展趋势。 技术是原动力。OpenAI发布具有深度思考能力的o1推理模型,标志大语言模型发展进入深度推理阶段,推理侧缩放法则同样存在,大模型算力需求侧逐步迁移至推理侧,推理计算提升大模型准确率,强化学习激发模型推理能力;伴随文本模型的日益成熟,高质量数据更为稀缺,合成数据价值显现,其与大语言模型推理有望产生新的化学反应;缩放法则从文本为主的大语言模型训练迁移到更加广阔的人工智能领域,同时o3与GPT5循环驱动有望开启。 应用是牵引力。AI Agent即将进入能力快速跃升阶段,头部的人工智能企业和互联网公司均在端侧AI Agent方面有所布局,超级智能体将走向普及;具身智能不断突破,人形机器人进入量产元年,机器人相继进入工厂实训,加速智能制造落地进展;人工智能极大加速科学研究进度,应用可见于所有STEM领域,AI4Science已经进入黄金时代;随着AI大模型逐步成熟,几乎所有硬件产品都可以加入AI元素来提升表现能力,端侧创新将不断涌现,AI塑造端侧新分工新格局;自动驾驶算法进入端到端驾驶算法发展阶段,大语言模型和视觉语言模型(VLM)逐步与端到端融合,进一步增强环境理解能力,Robotaxi进入商业化落地阶段;“人工智能+”全面铺开,企业数字化率先落地,AI在提升效率、精准决策、降低风险、创新服务方面均有巨大潜力。 能源是支撑力。推理端算力需求大幅增长,基于云的人工智能系统需要消耗更多的能源,可持续发展日益紧迫。 风险提示:人工智能模型技术发展不及预期、数据数量与数据质量不及预期、隐私问题、伦理冲突风险、算力基础设施支持不及预期等。趋势一 推理计算提升大模型准确率,强化学习激发模型推理能力 OpenAI发布新的具有深度思考能力的o1推理模型,推理侧缩放法则同样存在,大模型算力需求逐步迁移至推理侧。o1模型在复杂问题上花更多时间进行思考而非直接回应,具有改善和调整策略的能力,在科学、代码和数学等复杂问题上表现出色。思维链和思维树通过中间推理步骤帮助大模型实现了复杂的推理能力,大语言模型能够自己对推理过程的中间思维进行评估,o1呈现出类人的逻辑思维潜力。 强化学习激发模型推理能力,复杂思维方式——反思能力涌现。传统大模型需要大量人工标注的监督数据进行训练,DeepSeek-R1-Zero验证了无需任何微调数据,仅通过强化学习即可实现推理能力的自主进化。而且这是没有奖励思维链长度的情况下实现的,即目标只是为了作对题目,大模型就会自发进行更长地思考,并且最后回答效果更好。在这个过程中,自发涌现出“反思”、“多步验证”等复杂推理行为,出现问题后,模型会自动纠正早期错误,这种“智能”的出现,为未来更有智慧的Agent出现铺平道路。 结合蒸馏技术实现能力的高效迁移。使用DeepSeek-R1作为教师模型生成800K数据,并对多个小型密集模型微调,小模型性能飞跃。以通义千问的15亿参数量大模型为例,经过DeepSeek蒸馏后,数学题上超过GPT4o-0513的水平,为小算力实现特定功能奠定了基础。资料来源:OpenAI,天翼智库,中信建投图:推理侧缩放法则展现出的巨大潜力图:DeepSeek-R1-Zero在RL过程中训练集上的平均响应长度图:DeepSeek-R1-Zero中间版本一个有趣的“顿悟时刻”资料来源:DeepSeek-R1:通过强化学习激励LLMs中的推理能力,中信建投趋势二 高质量数据更为稀缺,合成数据价值显现 高质量数据的稀缺性日益加剧。生成式AI模型的智能表现很大程度上依赖于数据,高质量数据是构建和训练复杂大模型的基础,模型训练所需要的数据主要来源于互联网上的文字和视频。目前大语言模型需要的数据资源规模日益扩充,加速了数据资源耗尽的时间点到来,同时互联网数据的创建者提升了数据抓取的限制,让搜寻数据变得越来越困难。 合成数据是一种模仿真实世界数据的非人工创建的数据,是由基于生成式AI技术的计算算法和模拟创建而成。英伟达发布的开源模型Nemotron-4 340B,开发者可以使用它们生成用于训练大型语言模型的合成数据,以应用于医疗、金融、制造、零售及其他各行各业的商业应用,生成的合成数据在规模较小的大语言模型训练中将扮演重要的角色。 合成数据与推理时计算的化学反应在DeepSeek V3、DeepSeek R1中开始显现。以DeepSeek为例,用DeepSeek R1模型蒸馏出来高质量CoT数据去训练DeepSeek-V3,其高质量的合成数据对V3基础模型训练有明显提升。图:公共数据耗尽时间图:英伟达Nemotron-4数据合成过程资料来源:英伟达,中信建投资料来源:Will We Run Out of Data? Limits of LLM Scaling Based on Human-Generated Data,中信建投趋势三 缩放法则依然有效,o3与GPT5循环驱动有望开启 缩放法则(Scaling law):人工智能领域的缩放法则在2020年被首次提出,缩放法则在过去一段时间内指引大语言模型取得巨大成功:随着模型参数数量、训练数据量和计算量的增加,模型的性能会以可靠且可预测的方式提高。 发展趋势:随着大语言模型的模型尺度快速上升以及数据和算力的限制,尽管提升模型参数带来性能上升的边际收益正在逐步递减,提升模型参数规模、扩大训练语料库仍然是大语言模型提升性能的重要手段。在多模态数据中、在模型推理过程中、在生物数据中、在世界模型中,缩放法则初步展露头脚,缩放法则将从文本为主的大语言模型训练迁移到更加广阔的人工智能领域,指导人工智能模型在更多维度上的发展路径。 o3模型有望驱动模型和数据间的飞轮效应。o3模型思维链过程数据是目前AI行业的稀缺资源,可以极大推动模型和数据的飞轮效应,未来o3提升GPT-5、GPT-5提升o4的循环有望开启。图:大语言模型训练过程中的缩放法则资料来源:MANIBOX: ENHANCING SPATIAL GRASPING GENER-ALIZATION V
[中信建投]:人工智能行业:2025年人工智能十大发展趋势,点击即可下载。报告格式为PDF,大小17.86M,页数17页,欢迎下载。
