电力设备行业专题报告:海外科技研究-从谷歌看机器人大模型进展
海外科技研究从谷歌看机器人大模型进展证 券 研 究 报 告投资评级: ( )报告日期:行业推荐维持2023年11月19日◼ 分析师:傅鸿浩◼ SAC编号:S1050521120004◼ 分析师:臧天律◼ SAC编号:S1050522120001专题报告2投 资 要 点大模型是远期人形机器人的必备要素:人形机器人的特点在于通用性和泛化能力,远期可以替代人类完成多项任务。而大模型具有庞大的先验知识库与强大的通识理解能力,可以满足人形机器人通用性的场景要求和技能要求,不再仅限于完成某一类特定工作,而是进一步完成多类型任务。在机器人大模型上,思维链可以帮助机器人拆分与分解一件事件如何完成,先解码出计划的步骤,再解码需要完成任务需要输出的动作。谷歌:从Saycan到RT-X,软件领军者,步步为营,模型高速迭代从2022 年4月谷歌推出 Say-can 模型,初次引入大模型用于做任务理解和拆分,到RT-1使用传统神经网络的方法来执行SayCan的任务,再到RT-2将VLM大模型与RT-1的机器人执行数据集一起微调训练,最后创建Open X数据集训练出模型RT-X。谷歌的模型持续高速迭代,逐步向底层运动控制方面发展。机器人产业仍然处于较为早期阶段,数据、数据与细分场景模型搭建均有产业机会目前大部分机器人大模型仍然以单机械臂抓取为主,且模型的框架仍然在持续变化。可以明确看到大模型现在对底层的控制仍然偏弱。我们认为未来产业机会主要有三个方面,1、算力:机器人需要快速与环境交互,同时大模型本身要计算和存储空间。二者叠加之下机器人所需的参数和算力比自动驾驶以及大语言模型都要更大,因此对于算力的需求将在后续逐步有所体现。2、数据:机器人需要通过多种传感器感知环境状态,然后执行实际动作来完成任务,一方面需要3D环境数据,另一方面需要的是主动数据,此类数据量极度稀缺。3、细分场景的模型:未来大模型在机器人的应用,或许是通过底层的通识大模型+细分场景模型微调获得,其中底层架构的通识大模型有望参考类似手机安卓的模式由头部的AI企业开源,而细分场景的模型(同时也包括所需的数据)才是未来大部分企业可以竞争的市场。在这个赛道中,数据仍然是模型的基础。诚信、专业、稳健、高效请阅读最后一页重要免责声明3风 险 提 示机器人下游发展不及预期算力与算法模型更新迭代不及预期行业竞争加剧风险诚信、专业、稳健、高效请阅读最后一页重要免责声明目 录CONTENTS2. 从Saycan到RT-X——谷歌机器人模型高速迭代3. 目前机器人大模型产业化存在的问题与展望1.大模型是人形机器人的必备要素4诚信、专业、稳健、高效请阅读最后一页重要免责声明01 大模型是人形机器人的必备要素6大模型是人形机器人的必备要素诚信、专业、稳健、高效请阅读最后一页重要免责声明长期来看,人形机器人的最大优势在于通用性:人形机器人的特点在于泛化能力。如果只为解决单一或少数场景的应用,则特定专用机器人足以满足要求(如酒店服务机器人,扫地机器人等),从第一性原理来说,机器人之所以拟人,其根本目的在于完成多样化的任务——能爬楼梯,能按电梯,能提重物等完成所有人类所需的各种任务。通用性的实现依赖大模型的应用(体现在感知与识别):大模型具有庞大的先验知识库与强大的通识理解能力。可以满足人形机器人通用性的场景要求和技能要求。不再仅限于完成某一类特定工作,而是进一步完成多类型任务。目前机器人的应用基础是代码,机器人工程师需要编写代码和规范来控制机器人行为,这个调试过程缓慢、昂贵且低效,使用场景有限。ChatGPT带来一种新的机器人应用范式,我们可以通过LLM将自然语言快速转换为代码。这样就可以解决大量的场景以及任务需求,有望大幅度降低了算法开发的复杂度,同时可以简化合并算法模型数量,提升开发效率。而传统算法模型即使经历大量的训练,仍存在较多小概率场景(corner case)难以覆盖,泛化能力较低资料来源:《ChatGPT for Robotics: Design Principles and Model Abilities》微软,华鑫证券研究所图表 1:机器人有望通过大模型将自然语言快速转换成代码7大模型是人形机器人的必备要素诚信、专业、稳健、高效请阅读最后一页重要免责声明人形机器人大模型所需的视频数据足够充足(体现在后续的动作):深度学习的本质是模仿,可以用大量的人类视频来进行预训练/模仿学习,之后再通过标注用Reinforcement Learning进行微调。机器人做成人形也是为大模型在机器人上的发展铺垫。思维链条:思维链(Chain of Thought,CoT)是一种思维工具,通过逐步延伸和拓展一个主要想法,帮助人们进行更深层次的思考,并得出更复杂、更全面的结论。在机器人大模型上,思维链可以帮助机器人拆分与分解一件事件如何完成,增加了先解码出计划的步骤,再解码需要完成任务需要输出的动作,在需要语义推理任务上效果更好。在谷歌7月发布展示的具身大模型中RT-2中,机器人展示了类似视觉语言模型(VLM)的思维链,如:选出与其他物品不同的物品;告诉机器人很困,让机器人拿饮料,机器人会拿红牛;让机器人完成锤钉子任务,但桌子上只有耳机线、石头、纸,使用思维链后机器人会拿石头等。图表 2:RT-2的锤钉子实验资料来源:《RT-2: Vision-Language-Action Models》谷歌,华鑫证券研究所0 2 谷歌机器人大模型进展9SayCan:谷歌机器人大模型的开端,连接LLM与具身智能诚信、专业、稳健、高效请阅读最后一页重要免责声明• 2022 年4月,谷歌推出 Say-can 模型。将任务拆分成两个部分,先是 “Say”,模型通过与谷歌的大语言模型结合,把获得的任务进行分解,找到最适合当前行动;之后是“Can”,模型计算出当前机器人能够成功执行这一任务的概率。机器人通过将二者结合起来,进行动作。例子:对机器人说“我的饮料撒了,你能帮助我吗”机器人会首先通过语言模型进行任务规划,这时可能最合理的方式是找到一个清洁工、找到一个吸尘器,找一块海绵自己擦等。然后机器人会通过价值函数计算出作为机器人,找到海绵自己擦是最佳方案。之后,机器人就会选择寻找海绵的动作。• 亮点:首次引入大语言模型帮助理解任务,选择合适的任务规划。• 不足:机器人的动作仍然是预设好的,因此只能完成特定任务。底层技能通用性和泛用性较差。只能输出高级指令。资料来源:《Do As I Can, Not As I Say》谷歌,华鑫证券研究所图表 3:传统LLM不与世界互动,而Saycan通过预训练的价值方程转换成具体指令图表 4:Saycan同时结合LLM与价值函数资料来源: 《Do As I Can, Not As I Say》谷歌,华鑫证券研究所10RT-1:用于动作控制的端到端模型诚信、专业、稳健、高效请阅读最后一页重要免责声明• 原理:RT-1模型输入图片以及自然语言指令,通过基于image net(图像分类数据集)的高效卷积神经网络将其输出成为一系列与图片中任务相关的token,通过特征学习器将其转换成压缩的图像特征(image token),经过Transformer模型解
[华鑫证券]:电力设备行业专题报告:海外科技研究-从谷歌看机器人大模型进展,点击即可下载。报告格式为PDF,大小1.08M,页数26页,欢迎下载。



