AI周观察:AI训练基础设施叙事再增强
敬请参阅最后一页特别声明 1 摘要 - 本周 AI 应用活跃度呈现分化:海外市场 Gemini 周均活跃度大幅提升,ChatGPT 保持平稳,Claude 则有所回落;国内市场豆包活跃度持续领先增长。模型层面,阿里巴巴与百度均发布重要新模型:阿里开源了兼具性能与极高效率的 Qwen3-Next-80B-A3B,大幅降低了训练与推理成本;百度推出了在事实性和指令遵循上显著进步的深度思考模型文心 X1.1,并已向所有用户开放。 - Rubin CPX 标志着 AI 推理硬件架构正加速向分工与专用化演进。该芯片专注于 prefill 阶段,计算力达 20 PFLOPS FP4,配备 128GB GDDR7,成本仅为 R200 的四分之一,却可提供逾六成性能。其设计弱化高带宽内存与 NVLink,转而采用 PCIe Gen6 与流水线并行,大幅降低物料与系统成本,并推动 prefill 与 decode 阶段解耦,提高资源利用率。Rubin CPX 有望提升单位资本支出的推理性能,加快投资回报周期,巩固英伟达领先地位,并加剧行业分化与竞争壁垒。 - 甲骨文 FY26Q1 展现出订单与资本投入的鲜明对比:RPO 飙升至 4550 亿美元,同比增长 359%,凸显 AI 云计算和数据库服务的强劲需求。公司据此将全年 OCI 收入增速指引上调至 77%,并披露未来四年大幅扩张路径。为满足订单,公司上修 FY26 资本开支至 350 亿美元,集中投向数据中心设备,并采取“就绪即上架、上架即计费”的模式加快兑现。短期内自由现金流和利润率承压,但若产能如期释放,长期增长确定性仍然突出。 - 2025 年 7 月,中国智能手机销量达到约 2159 万台,同比下滑 1.09%。华为、小米、荣耀 OPPO、vivo、以 15.96%、15.13%、13.93%、13.47%、13.44%的份额排名前五。具体型号方面,iPhone 16 Pro 销量排名第一,iPhone 16 Pro Max、OPPO reno 14 排名第二、第三。7 月国内 PC 市场销量基本同比持平,台式机销量约为 158 万台,同比下滑约 4%。笔电销量约为 191 万台,同比增长约 1%。 风险提示 芯片制程发展与良率不及预期 中美科技领域政策恶化 智能手机销量不及预期 行业周报(简报) 敬请参阅最后一页特别声明 2 扫码获取更多服务 内容目录 海外市场行情回顾................................................................................ 3 阿里发布 Qwen3-Max,Gemini 活跃度上升............................................................ 4 英伟达 Rubin CPX 点评:推理专用硬件加速 AI 基础设施分化........................................... 5 甲骨文 FY26Q1 财报点评:RPO 飙升、OCI 指引上调,CapEx 重压下的云业务转型加速 ...................... 5 消费电子动态.................................................................................... 6 7 月国内智能手机市场销量同比下滑 ............................................................ 6 7 月 PC 市场基本同比持平 ..................................................................... 8 风险提示........................................................................................ 8 行业周报(简报) 敬请参阅最后一页特别声明 3 扫码获取更多服务 海外市场行情回顾 图表1:截至 9 月 5 日海外 AI 相关个股行情 来源:Reuters、国金证券研究所 行业周报(简报) 敬请参阅最后一页特别声明 4 扫码获取更多服务 阿里发布 Qwen3-Max,Gemini 活跃度上升 图表2:聊天助手类 AI 应用活跃度 来源:Similarweb、国金证券研究所 本周,海外聊天助手类应用活跃度中,Gemini 周均环比大幅提升,ChatGPT 保持平稳,Claude 有所回落。国内应用中,豆包活跃度持续环比提升,多数 AI 聊天类应用保持稳定。 行业周报(简报) 敬请参阅最后一页特别声明 5 扫码获取更多服务 阿里巴巴本周开源 Qwen3-Next-80B-A3B 新模型,通过混合注意力机制与高稀疏性专家模型(MoE)等创新,实现性能与效率双重提升。该模型总参数达 800 亿,但推理时仅激活 30亿,训练成本较 Qwen3-32B 降低 90%,推理效率提升 10 倍,在长文本处理上表现尤为突出,性能媲美Qwen3-235B,并超越谷歌 Gemini-2.5-Flash。此外,百度于 9 月 9 日发布文心大模型X1.1,作为一款深度思考模型,其在事实性、指令遵循及智能体表现上均有显著进步。目前该模型已对个人用户和企业开发者全面开放。 英伟达 Rubin CPX 点评:推理专用硬件加速 AI 基础设施分化 Rubin CPX 的发布,意味着 AI 推理硬件架构正加速向分工和专用化演进。Rubin CPX 专为推理任务中的 prefill 阶段设计,显著强化了计算能力,弱化了高带宽内存配置,从而有效降低了单芯片和整机的物料成本。其采用 128GB GDDR7 内存,单芯片计算力达到 20 PFLOPS FP4,成本仅为 R200 的四分之一,但计算能力已达到六成以上。 Rubin CPX 的最大亮点在于推动了推理服务的解耦:prefill 与 decode 阶段可由不同类型的硬件分别承载,极大提升了资源利用率。这种设计不仅优化了硬件投资结构,也有助于降低整体总拥有成本。此外,Rubin CPX 摒弃了 NVLink 等高成本高速互联,采用 PCIe Gen6和流水线并行,进一步压缩了网络和系统投入。 Rubin CPX 的专用化策略使竞品不得不重新调整产品路线,延长研发周期,进一步巩固了英伟达的市场领先地位。对于数据中心客户而言,Rubin CPX 的出现有望提升单位资本支出的 AI 推理性能,加快 AI 基础设施投资的回报周期。 综上,Rubin CPX 不仅提升了推理系统的性能/成本比,还加剧了 AI 基础设施市场的分化与竞争壁垒。未来,推理硬件的专业化分工将成为行业趋势,硬件厂商和云服务商需加快适应,以应对市场格局的快速变化。 甲骨文 FY26Q1 财报点评:RPO 飙升、OCI 指引上调,CapEx 重压下的云业务转型加速 甲骨文在 FY26Q1 实现营收
[国金证券]:AI周观察:AI训练基础设施叙事再增强,点击即可下载。报告格式为PDF,大小1.61M,页数9页,欢迎下载。
