2024年多模态大模型(MLLMs)轻量化方法研究现状和展望报告-中移智库

多模态大语言模型(MLLMs)轻量化方法研究现状和展望中国移动研究院 业务研究所2024 年 12 月中移智库 摘要多模态大语言模型(MLLMs)在视觉问答、视觉理解与推理等任务中展现出卓越的性能,但多模态大语言模型庞大的模型规模和高昂的训练、推理成本限制了其在学术界和工业界的广泛应用。因此,研究高效且轻量化的多模态大语言模型,特别是在边缘计算场景中,潜力巨大。本文将全面介绍当前多模态大语言模型轻量化的方法及研究现状,并探讨其局限性及未来潜在的发展方向。一、 多模态大语言模型概述(一)什么是多模态大语言模型?多模态大语言模型是一种创新性的人工智能模型,巧妙地融合了大语言模型与多模态处理能力。它能够理解和生成涵盖多种模态的数据,如文本、图像、视频、音频等,并通过多模态信息的融合实现更广泛、更复杂的任务。多模态大语言模型不仅具有强大的语言处理能力,还能通过对图像、视频或其他模态的理解,进行跨模态任务处理,比如视觉问答、视觉推理、多模态内容生成等。 2 / 14中移智库 (二)为什么要轻量化?多模态大语言模型的成功主要得益于缩放定律(scalinglaw),即资源投入越多,性能越高。然而,高资源需求限制了其开发和部署。例如,MiniGPT-v2 模型 [16]的训练耗时超 800GPU 小时,LLaVA-1.5-Vicuna-13B[3]模型推理需 18.2T FLOPS 和41.6G 内存,资源消耗巨大。目前,主流多模态大语言模型多由少数企业掌控,云端运行模式引发普及化和隐私保护担忧,同时,高算力需求也限制了边缘设备的应用,对公平访问和隐私保护构成挑战。鉴于此,轻量化多模态大语言模型的研究日益受到重视,旨在降低资源消耗、提高适用性,同时尽量减少性能损失。二、多模态大语言模型轻量化方法研究现状多模态大语言模型主要由三个核心模块组成:视觉编码器、预训练大语言模型、以及视觉-语言投影器,如图 1 所示。轻量化多模态大语言模型的优化措施主要集中在对上述三个模块的改进,并引入了视觉 token 压缩技术和高效的结构设计。 3 / 14中移智库 图 1 多模态大语言模型的轻量化架构出自论文《Efficient Multimodal Large Language Models:A Survey》(一)三个核心模块优化视觉编码器:负责接收和处理视觉输入。轻量化的多模态大 语 言 模 型 通 常 选 择 使 用 预 训 练 的 视 觉 编 码 器 模 型 ( 如CLIP[4]),以便更好地对齐视觉与文本输入的特征空间。由于视觉编码器在多模态大语言模型总参数中的占比较小,其轻量化优化的效果不如语言模型显著,因此大部分轻量化多模态大语言模型通常仍沿用大规模多模态大语言模型中广泛采用的视觉编码器。预训练大语言模型:大语言模型是多模态大语言模型的核心组件,用于管理多模态信号并执行推理。多模态大语言模型中获取小的大语言模型的方案一般分为两种:一是直接使用小的轻量化模型。轻量化的多模态大语言模型通常使用参数少于30 亿的小型语言模型,如微软的 phi2-2.7B 模型 [17]和谷歌的 4 / 14中移智库 Gemma-2B 模型[2]。Phi-2 模型在特殊数据集上训练后,其性能可以匹配使用常规数据集训练的 25 倍大模型。Phi-3-mini 模型[2]可 以 轻 松 地 在 现 代 手 机 上 本 地 部 署 , 且 其 质 量 与 Mixtral8x7B[18]模型和 GPT-3.5 等模型相当。二是使用模型压缩技术对大语言模型进行轻量化处理。一般常用的模型压缩方法包括:量化,剪枝,知识蒸馏,紧凑的架构设计,动态网络等,这些方法在传统的深度学习网络(如 CNN 和 RNN)中已有广泛应用,而在大语言模型的优化中也有了更深入的探索。每种方法的具体实施方案和效果因任务需求和硬件约束而异,在此不再逐一详细介绍。视觉-语言投影器:是连接视觉与文本桥梁,其核心功能是将视觉特征块映射至文本特征空间。针对此模块的轻量化,包括四种:一是基于注意力。如 BLIP2[7]引入了 Q-Former,一个轻量级的 Transformer,使用一组可学习的查询向量从冻结的视觉模型中提取视觉特征。二是基于 CNN。如 MobileVLMv2[8]提出的LDPv2,通过使用逐点卷积层、平均池化和带有跳跃连接的 PEG模块,LDPv2 减少了 99.8%的参数,在效率上取得了更好的表现。三是基于 Mamba。如 VL-Mamba[9]在其视觉-语言投影器中实现了 2D 视觉选择性扫描(VSS)技术,促进了多种学习方法的融合。四是混合结构。如卷积抽象器通过使用卷积结构高效地建模局部上下文,有助于将视觉特征抽象为任意平方数的视觉token。 5 / 14中移智库 (二)视觉 token 压缩视觉 token 压缩旨在减少由大量 token 引起的计算量,当前已经成为多模态大语言模型轻量化的关键。通过以下几种关键技术来实现:多视图输入:为了利用低分辨率视觉编码器处理高分辨率图像,一种常见的方法是输入高分辨率图像的低分辨率全局视图,和通过分割高分辨率图像获得局部视图。例如,LLaVA-UHD[5]提出了一种图像模块化策略,将原始分辨率图像划分为更小的可变大小切片,以实现高效且可扩展的编码。token 处理:长视觉 token 序列的处理技术对于高效的多模态大语言模型至关重要,其解决了保持细粒度细节和减少计算复杂度的双重挑战。例如 LLaVA-PruMerge[10]和 MADTP[19]提出了一种适应性视觉 token 减少方法,在保持相似模型性能的同时显著减少了视觉 token 的数量。多尺度信息融合:利用多尺度图像信息对视觉特征提取至关重要。这种方法使模型能够捕捉较小尺度中的细粒度细节和较大尺度中的广阔背景。例如 Mini-Gemini 模型[11]包括两个编码器,一个用于高分辨率图像,另一个用于低分辨率视觉嵌入。它提出了块信息挖掘,通过低分辨率视觉嵌入作为查询,通过跨注意力从高分辨率候选中检索相关的视觉线索。视频特定方法:视频理解还需要处理大量帧,这可能会突破大语言模型的上下文窗口处理能力,带来巨大计算负担。例 6 / 14中移智库 如 VideoLLaVA[15]基于 LanguageBind[20]构建,将视觉表示统一到语言特征空间中,推动基础大语言模型向统一的语言-视觉大模型发展,同时避免了巨大的计算负担。(三)高效的结构高效的结构是通过优化模型结构或算法设计,以更少的资源实现相近甚至更高的性能,是多模态大语言模型轻量化的关键 探 索 方 向 。 主 要 包 括 三 个 方 向 : 专 家 混 合 模 型(MoE)、Mamba 和推理加速。专家混合模型:专家混合模型通过调节模型参数的总数来增强模型容量,同时保持激活参数不变,从而不会显著影响推理速度。MoE-LLaVA[12]提出了一种基于专家混合模型的稀疏 M 多模态大语言模型框架,能够有效增加参数数量,而不影响计算效率。Mamba: Mamba[21]是一种新型的高效序列建模方法,专为高效处理信息密集型数据(如语言建模)而设计。Cobra[13]将Mamba 语言模型融入视觉模态,并

立即下载
综合
2024-12-30
14页
0.52M
收藏
分享

2024年多模态大模型(MLLMs)轻量化方法研究现状和展望报告-中移智库,点击即可下载。报告格式为PDF,大小0.52M,页数14页,欢迎下载。

本报告共14页,只提供前10页预览,清晰完整版报告请下载后查看,喜欢就下载吧!
立即下载
本报告共14页,只提供前10页预览,清晰完整版报告请下载后查看,喜欢就下载吧!
立即下载
水滴研报所有报告均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
相关图表
表 3 煤矿瓦斯综合利用技术路线
综合
2024-12-30
来源:2024年中国甲烷减排努力与前景展望报告
查看原文
表 2 我国“十四五”以来推动甲烷减排的政策
综合
2024-12-30
来源:2024年中国甲烷减排努力与前景展望报告
查看原文
图 2 中国 2018 年甲烷排放结构(左)和甲烷历史排放趋势(右)
综合
2024-12-30
来源:2024年中国甲烷减排努力与前景展望报告
查看原文
图 2 不同研究下我国甲烷排放趋势预测(百万吨 CO2e,GWP=21)
综合
2024-12-30
来源:2024年中国甲烷减排努力与前景展望报告
查看原文
图 1 全球甲烷排放趋势(左)和 2023 年全球甲烷排放的结构(右)
综合
2024-12-30
来源:2024年中国甲烷减排努力与前景展望报告
查看原文
表 6 上市 REITs 分红历年次数
综合
2024-12-30
来源:新国九条等政策驱动下红利指数投资发展与展望
查看原文
回顶部
报告群
公众号
小程序
在线客服
收起