Alpha掘金系列之七:大模型微调指南,ChatGLM医药行业舆情精选策略
敬请参阅最后一页特别声明 1 在我们前期对于 ChatGPT 的相关研究中发现,虽然模型展现出了极强的通用领域各项能力,但投研人员也需要在保证数据安全的前提下有一个更加垂直领域的模型来辅助进行投研决策。而大语言模型的微调就提供了一种定制私有化大模型、提升器专业能力的方式。由于全量参数微调对于显卡的消耗巨大,我们着重介绍了各类 PEFT(参数高效型)微调的方法和特点,其中 P-Tuning 和 LoRA 是两种目前表现较好的微调方式。 一般的微调包括定义任务并收集数据、数据加载及预处理、训练和评估这几个步骤。其中数据预处理时,我们需要首先将数据及标签转换为模型支持的数据格式,然后进行 padding 和 truncation 的处理以方便后续进行向量运算。选择合适的超参数后进行多轮训练,最终观察样本内和样本外的模型表现。 我们选用表现较好的 LoRA 模式针对前期部署的 ChatGLM2 进行微调。为实际测试模型的微调效果,我们在数据选择上,发现医药行业新闻对于公司的业绩影响推导逻辑链条会更加直接,对大模型而言更易于学习。首先进行了直接以收益率为标签进行训练,但发现微调后的模型在样本外的准确率极低,说明由于文本与收益率之间相关性较弱,难以使模型直接学习。 最终我们综合对比各大模型在中文金融领域的能力后,选择首先使用 ChatGPT3.5 的输出结果作为标签让 ChatGLM2 进行学习。结果发现,该标签质量较高,对于未来股价一段时间的超额收益率走势有一定的预测作用。且通过微调后,ChatGLM2 也可以学到相应的逻辑推理能力,达到近似于 ChatGPT3.5 的预测效果,综合准确率达到 0.9 左右。而 FinBERT模型微调后也有一定的提升,但表现略差于 ChatGLM2。最终我们以微调后的 ChatGLM2-LoRA 模型所给出标签构建医药行业周度舆情精选策略,发现在不考虑手续费的情况年化超额收益率达到 30%左右。不过由于个股新闻覆盖度的问题,策略换手较高,我们通过换手率缓冲的方式降低换手后,在单边千分之二的情况,策略的年化超额收益率依然有 12.17%。充分说明,通过合适的标签令 ChatGLM2 进行微调学习,可以使其在特定领域能够达到与 ChatGPT3.5 类似的效果。是一种绝佳的能够在控制成本和数据隐私性安全的情况下使用大模型进行投研辅助的方式。 1、 大语言模型基于上下文预测进行回答,不能保证回答准确性,由此可能产生误导影响用户判断。 2、 不同的微调方式和超参数选择可能对微调效果产生较大影响,若模型产生过拟合,样本外失效可能会导致策略效果不及预期。 3、 市场若出现超出模型预期的变化,过往逻辑链条适用性下降可能会导致策略失效,需要动态对模型进行微调以修正偏差。 金融工程专题报告 敬请参阅最后一页特别声明 2 扫码获取更多服务 内容目录 一、大语言模型的微调方式简介.................................................................... 4 1.1 大语言模型微调应用案例................................................................ 4 1.2 大语言模型微调方法介绍................................................................ 5 二、微调的一般步骤.............................................................................. 7 三、LoRA 微调实践 ............................................................................... 9 3.1 显卡资源消耗介绍........................................................................ 9 3.2 微调实践案例............................................................................ 9 四、基于 LoRA 微调的 ChatGLM2 医药行业舆情精选策略............................................... 10 4.1 医药行业新闻文本概述................................................................... 10 4.2 以超额收益率为标签的 ChatGLM 微调....................................................... 12 4.3 ChatGPT、ChatGLM 与 FinBERT 输出结果对比 ................................................ 13 4.4 ChatGPT 与 ChatGLM 医药行业舆情精选策略对比 ............................................. 17 4.5 以 ChatGPT3.5 结果为标签的 ChatGLM2 模型微调............................................. 18 总结........................................................................................... 21 风险提示....................................................................................... 22 图表目录 图表 1: ChatGLM-6B 与 Med-ChatGLM 模型输出效果对比............................................... 4 图表 2: BianQue 模型输出示例.................................................................... 5 图表 3: ChatLaw 模型输出示例.................................................................... 5 图表 4: LoRA 微调原理示例....................................................................... 6 图表 5: BERT 类模型完成 MRPC 和 QQP 任务准确率与本征维度 d 关系示例................................ 7 图表 6: P-Tuning
[国金证券]:Alpha掘金系列之七:大模型微调指南,ChatGLM医药行业舆情精选策略,点击即可下载。报告格式为PDF,大小1.89M,页数23页,欢迎下载。
