通信设备:谷歌发布Gemini模型,AMD芯片发布助力AI提速发展
请务必阅读正文之后的免责声明及其项下所有内容证券研究报告 | 2023年12月11日超 配1行业点评谷歌发布 Gemini 模型,AMD 芯片发布助力 AI 提速发展 行业研究·行业快评 通信·通信设备 投资评级:超配(维持评级)证券分析师:马成龙021-60933150machenglong@guosen.com.cn执证编码:S0980518100002证券分析师:朱锟旭021-60375456zhukunxu@guosen.com.cn执证编码:S0980523060003事项:北美时间 12 月 6 日谷歌(纳斯达克上市,代码 GOOGL.O)发布其最新大语言模型 Gemini。Gemini 有望成为首个在手机上直接运行的大模型,应用于谷歌 Pixel 8 Pro 智能手机和聊天机器人 Bard。北京时间 12月 7 日,AMD(纳斯达克上市,代码 AMD.O)在 Advancing AI 大会上正式发布两块旗舰产品,Instinct MI300X与 MI300A。国信通信观点:谷歌 Gemini 模型采用了原生多模态定义,相较于之前的大模型版本有了明显升级,可以归纳、理解、操作以及组合不同类型的信息,成为继 OPEN AI 的 ChatGPT 之后第二个呈现出类似能力的大模型,表明 AI大模型进展再加速。谷歌在大模型训练部分采用自研芯片 TPU 和自研光交换技术 OCS 进行互联,测算下来TPU:光模块比例=1:1.5。芯片环节,AMD 发布了同样可以在 AI 领域进行模型训练和推理的 MI300 系列产品,表明在 GPU 领域,芯片选择不断增加,有望打破英伟达独家领先优势以及降低 GPU 采购成本,满足行业多样化需求,进而推动应用层面进展加速。投资建议:谷歌 Gemini 模型发布和 AMD GPU 芯片的发布都有利于推动 AI 行业进展,从硬件基础设施环节到应用层面,二者互相迭代升级推动行业需求向上发展,在硬件环节,谷歌创新性采用 OCS 技术,在交换机层面选择了全光设计,增加了光器件使用。建议重点关注:光器件环节【天孚通信(创业板上市,300394.SZ)】、【光库科技(创业板上市,300620.SZ)】、【博创科技(创业板上市,300548.SZ)】等。风险提示:AI 进展不及预期;硬件环节(服务器、交换机、光模块)迭代不及预期。评论: 谷歌发布 Gemini 模型,大模型进展再加速北美时间 12 月 6 日,谷歌在官网宣布 Gemini 1.0 正式上线。Gemini 是一款新型的多模态大语言模型,此前多模态大模型在处理视频、文字、图像等多维度输入信息时是采用分别训练分别输出再进行拼接的方式,这种方式的缺点在于面对复杂逻辑问题时,大模型的回复略显迟钝。Gemini 采用了全新的训练方式,直接在多模态数据上进行预训练,并利用额外的多模态数据进行微调,因而可在处理复杂逻辑问题上更加智能。Gemini 模型一共包括三个版本,可以在不同设备上进行使用。1)Gemini Nano—端侧设备上最高效的模型。这款模型专为智能手机设计,可以在没有连接外部服务器的情况下完成 AI 处理任务,目前已集成在谷歌的 Pixel 8 Pro 手机当中,可支持录音应用中的“总结文本”功能,Gboard “智能回复”功能。预计从 WhatsApp 开始,明年还将扩展到更多应用。请务必阅读正文之后的免责声明及其项下所有内容证券研究报告22)Gemini Pro—运行在谷歌数据中心。Pro 版本将在最新版本的 AI 聊天机器人 Bard 提供支持,是 Bard推出以来的最大升级。目前为 170 多个国家和地区提供英语服务,计划未来几个月内支持新的语言和地区,并应用于搜索、广告、Chrome 和 Duet AI 等更多谷歌产品。3)Gemini Ultra —规模最大且功能最强大的模型,专用于高度复杂的任务,会在完成当前测试阶段后的明年初向开发者和企业客户提供。届时还会推出基于 Gemini Ultra 的 Bard Advanced 更新版本。图1:Gemini 模型具有三个版本资料来源:谷歌 Gemini 发布会,国信证券经济研究所整理Gemini 模型训练基于谷歌自研 TPU 芯片,发布 TPU v5P,性能全部升级。谷歌较早就开始布局 AI 市场,2015 年便发布了专门用于 AI 领域的专用芯片 TPU v1,2015 年至今,谷歌已经完成了五个版本的迭代。目前现阶段谷歌展示的 Gemini 1.0 模型就是基于 TPU v4 和 TPU v5e 两类芯片来完成训练过程。在发布 Gemini 模型的同时,谷歌发布了最新的 TPU v5p 系列。v5p 进一步增强了方案可拓展性,并为了应对复杂模型的推理训练与调整需求,设计了新的硬件架构。在 v5p 构建的集群,每个 Pod 计算单元由 8960颗芯片互联,数量较之前的版本翻倍。计算性能上,新的 pod 浮点运算能力相比 v4 提升了两倍,训练速度相比 v4 提升 2.8 倍以上。请务必阅读正文之后的免责声明及其项下所有内容证券研究报告3图2:谷歌数据中心内的 TPU v5p资料来源:Google Blog,国信证券经济研究所整理谷歌 TPU:创新网络拓扑结构,采用光交换技术(OCS)。传统数据中心网络结构为 leaf-spine 叶脊架构,英伟达 AI 集群采用的是无收敛胖拓扑结构,谷歌的 AI 网络集群在 spine 层进行创新,用 OCS 交换机(光路开关,optical circuit switch)代替传统的电交换机(以太网交换机)。传统数据中心在 spine 层需要进行大量的电光转换,会产生较多的功耗,并且随着数据量增加 spine 层每 2-3 年都需要进行更换。谷歌的 OCS 的目的是替代当下的电网络交换机,从而实现近一步成本和功耗的降低。图3:传统数据中心(左)与谷歌(右)数据中心结构对比资料来源:R. Urata et al., "Apollo: Large-Scale Deployment of Optical Circuit Switching for Datacenter Networking," 2023OpticalFiberCommunicationsConferenceandExhibition(OFC),SanDiego,CA,USA,2023,pp.1-3,doi:10.1364/OFC.2023.M2G.1.,国信证券经济研究所整理谷歌的 OCS 称为为 Palomar,内部结构为:输入输出为光纤准直器阵列,光纤准直器包括光纤阵列和微透镜阵列,输入和数据均为 136 个通道(128 个端口+8 个备用端口)。当光通过光纤进入 OCS 系统后,会通过两个 2D 的 MEMS 阵列,每个 MEMS 阵列含有 136 个平面镜,用于调整光的传播方向。波长为 850nm。请务必阅读正文之后的免责声明及其项下所有内容证券研究报告4图4:谷歌 OCS 工作原理资料来源:R. Urata et al.,"Apollo: Large-Scale Deployment of Optical Circuit Switc
[国信证券]:通信设备:谷歌发布Gemini模型,AMD芯片发布助力AI提速发展,点击即可下载。报告格式为PDF,大小0.86M,页数9页,欢迎下载。
