2023大模型厂商全景报告
1 | 2023 昶ⴔ區·㣐垷㘗⾊㉁Ⰼ兞䫣デ1 | 2023 昶ⴔ區·㣐垷㘗⾊㉁Ⰼ兞䫣デ1 | 2023 昶ⴔ區·㣐垷㘗⾊㉁Ⰼ兞䫣デ报告编委 䫣デ䭷㼋➃䓎䪋昶ⴔ區翫ざ㨤➃&껷䌏ⴔ區䋗䫣デ䪄疴➃勚鵳㹈昶ⴔ區넞紩ⴔ區䋗 2 | 2023 昶ⴔ區·㣐垷㘗⾊㉁Ⰼ兞䫣デ目录 1. 研究范围定义 1 2. 厂商全景地图 5 3. 市场分析与厂商评估 11 3.1 知识库问答18 爱数 14 3.2 对话式分析18 飞算科技 21 3.3 AI Agent26 澜码科技 28 3.4 通用大模型32 出门问问 34 3.5 行业大模型40 拓尔思 42 3.6 企业大模型46 滴普科技 49 3.7 大模型安全流通平台55 揽睿星舟 58 4. 入选厂商列表 64 关于厂商全景报告 70 3 | 2023 昶ⴔ區·㣐垷㘗⾊㉁Ⰼ兞䫣デ关于爱分析 71 研究与咨询服务 72 法律声明 73 4 | 2023 昶ⴔ區·㣐垷㘗⾊㉁Ⰼ兞䫣デ 研究范围定义 1 | 2023 昶ⴔ區·㣐垷㘗⾊㉁Ⰼ兞䫣デ1. 研究范围定义 研究范围 大模型是指通过在海量数据上依托强大算力资源进行训练后能完成大量不同下游任务的模型。2023年以来,ChatGPT 引爆全球大模型市场。国内众多大模型先后公测,众多互联网领军者投身大模型事业,使得大模型市场进入“百团大战”阶段,2023 年成为公认的“大模型元年”。 企业用户方面,大模型的应用速度之快超乎想象。2023 年初,企业管理层对大模型的话题还停留在大模型是什么,是不是概念炒作。短短半年,大模型已经从饭后谈资走向落地应用。大企业管理层们希望了解到大模型能为企业发展带来哪些变革,大模型的应用路径是什么,如何提升大模型的投资回报率,以及应该为拥抱大模型做哪些准备。而且,大模型吸引的人群也愈发广泛,不仅吸引 CIO、CTO 等技术管理者的关注,CEO、CMO 等非技术类管理者同样期待大模型在业务中发挥价值。这些转变表明,大模型的变革之力正日益得到产业界的认可。 通过对市场规模数据的分析,能较为直观地体现出企业对大模型应用落地的热情。爱分析数据显示,2023 年中国大模型市场规模约为 50 亿元(人民币,下同)。2023 年,企业在大模型方面的采购特点是论证多、采购少,各企业计划在 2024 年开始大量释放大模型预算,因此市场规模将大幅增长,预计达到 120 亿元。 爱分析认为,大模型市场从技术架构角度可以划分为基础层、模型层、中间层和应用层。基础层是指为大模型训练推理而提供的基础环境,包括湖仓一体、向量数据库、智算中心、大模型安全流通平台等。模型层是指基础大模型以及微调后的大模型,包括通用大模型、行业大模型、领域大模型和企业大模型。中间层是模型层和应用层之间的“桥梁”,有利于大模型在各种实际场景快速落地,包括大模型应用开发工具、LLMOps 工具等。应用层是指大模型应用和解决方案,包括知识库问答、智能客服、对话式分析等。大模型市场划分详见下图。 2 | 2023 昶ⴔ區·㣐垷㘗⾊㉁Ⰼ兞䫣デ 本报告重点选取知识库问答、对话式分析、AI Agent、通用大模型、行业大模型、企业大模型、大模型安全流通平台七个市场进行研究。 厂商入选标准 本次入选报告的厂商需同时符合以下条件: 3 | 2023 昶ⴔ區·㣐垷㘗⾊㉁Ⰼ兞䫣デl 厂商的产品服务满足各市场分析的厂商能力要求; l 近一年厂商具备一定数量以上的企业付费客户(参考第 3 章各市场分析部分); (注:“近一年”指 2023 年 Q1 至 2023 年 Q4)4 | 2023 昶ⴔ區·㣐垷㘗⾊㉁Ⰼ兞䫣デ 厂商全景地图 5 | 2023 昶ⴔ區·㣐垷㘗⾊㉁Ⰼ兞䫣デ2. 厂商全景地图 爱分析基于对甲方企业和典型厂商的调研以及桌面研究,遴选出在大模型市场中具备成熟解决方案和落地能力的入选厂商。 --6 | 2023 昶ⴔ區·㣐垷㘗⾊㉁Ⰼ兞䫣デ 7 | 2023 昶ⴔ區·㣐垷㘗⾊㉁Ⰼ兞䫣デ 8 | 2023 昶ⴔ區·㣐垷㘗⾊㉁Ⰼ兞䫣デ 9 | 2023 昶ⴔ區·㣐垷㘗⾊㉁Ⰼ兞䫣デ 10 | 2023 昶ⴔ區·㣐垷㘗⾊㉁Ⰼ兞䫣デ 市场分析与厂商评估 11 | 2023 昶ⴔ區·㣐垷㘗⾊㉁Ⰼ兞䫣デ3. 市场分析与厂商评估 爱分析对本次大模型项目重点研究的特定市场定义如下。同时,针对参与此次报告的部分代表厂商,爱分析撰写了厂商能力评估。 3.1 知识库问答 市场定义: 知识库问答是指将大模型与知识库相结合,改变原有的知识库构建、应用与运维的方式,致力于更好地支撑企业管理层及全体员工的知识检索与应用需求。 甲方终端用户: 企业管理层及全体员工 甲方核心需求: 成本可控、验证速度较快、覆盖的企业内部用户比较多等多重因素共同作用下,知识库成为大模型在企业落地的首选场景之一。从渗透情况来看,大模型在知识构建、知识校验和知识库应用三个环节渗透较深。 图 1 知识库构建流程及大模型渗透情况 12 | 2023 昶ⴔ區·㣐垷㘗⾊㉁Ⰼ兞䫣デ基于大模型在知识库场景的渗透情况,当前甲方对知识库问答主要有三项核心需求,一是压缩知识库冷启动时间,二是降低知识校验环节对人工的依赖,三是企业亟需解决幻觉问题。 l 压缩知识库冷启动时间。当前,知识构建工作比较依赖话术师,他们负责整理问答对和扩写相似问,此过程比较依赖他们的个人经验。一个话术师整理一类知识库通常需要耗费大约 1-3 个月的时间。知识构建是知识库冷启动的核心环节,知识构建效率偏低会直接导致知识库冷启动时间比较长。企业需要借助大模型的理解能力和生成能力压缩知识库冷启动时间。引入大模型之后,可以提升问答对整理和相似问扩写的速度,甚至可以直接采用“大模型+文档库”的方式,实现更极致的冷启动压缩。 l 降低知识校验环节对人工的依赖。在完成知识构建后,企业需要校验知识准确性以及文法细节,此环节主要靠人工来实现。并且,该工作对相关人员的工作经验有较高要求。企业希望借助大模型实现自动化知识校验。 l 知识库交互方式变化,企业亟需解决幻觉问题,生成可信的答案。传统知识库主要采用人工检索方式,很难直接告诉用户答案,该交互方式比较低效。企业需要利用大模型的生成能力直接生成用户所需的答案。但是,交互方式的变化也为知识库应用带来新的挑战,即大模型幻觉导致的答案不可信。 厂商能力要求: 厂商需要满足三项能力要求,一是具备利用大模型进行知识分类、知识抽取和问答对拆分的能力,二是具备解决两个校验难题的方案,三是具备 RAG、微调等缓解大模型幻觉的能力。 l 具备利用大模型进行知识分类、知识抽取和问答对拆分的能力。引入大模型之后,首先可以做知识域的自动分类。第二个作用是自动抽取知识点的实体和关系,本质是基于大模型做预处理,1
[爱分析]:2023大模型厂商全景报告,点击即可下载。报告格式为PDF,大小32.41M,页数80页,欢迎下载。