管理解释:监管机构如何应对人工智能可解释性问题

2025年9月JEL分类:C60,G29,G38,O30临时文件24号管理解释:监管机构如何应对人工智能可解释性问题由Fernando Pérez-Cruz,Jermy Prenio,Fernando Restoy,Jeffery Yong关键词:人工智能,机器学习,模型风险管理,风险治理 ISSN 1020-9999 (在线)fsi临时文件旨在就与金融业及其监管和监督相关的广泛主题,为国际讨论做出贡献。其中表达的观点完全是作者的观点,并不一定反映国际清算银行或巴塞尔-based的标准制定机构的观点。本出版物可在国际清算银行网站(www.bis.org)上获取。如需联系国际清算银行全球媒体与公共关系团队,请发送电子邮件至media@bis.org。您可以在www.bis.org/emailalerts.htm上注册邮件提醒。国际清算银行2025。版权所有。简短摘录可能会被复制或© B翻译时需标明出处。 摘要管理解释:监管机构如何应对人工智能可解释性问题iii随着金融机构将人工智能模型应用于其关键业务领域,金融监管机构有必要寻求在人工智能背景下相关健全的模型风险管理与模型输出(MRM)实践。最终,可能需要在可解释性和模型性能之间做出权衡,只要风险得到适当评估和有效管理。允许使用可解释性有限但性能优越的复杂人工智能模型,或许能够使金融机构更好地管理风险并提升客户体验,前提是引入了充分的保护措施。对于监管资本应用场景,复杂人工智能模型可能被限制在特定的风险类别和敞口范围内,或受到输出下限的约束。监管机构还必须投入资源提升员工评估人工智能模型的能力,以确保金融机构能够发挥人工智能的潜力,同时不损害监管目标。有限的模型可解释性使得管理模型风险具有挑战性。国际标准制定机构已发布——主要是高级别——模型风险管理(MRM)要求。然而,只有少数国家金融监管机构发布了具体的指导,而且它们往往侧重于用于监管目的的模型。其中许多现有指南可能并未针对先进的AI模型进行制定,并未明确提及模型可解释性的概念。相反,该概念体现在与治理、模型开发、文档记录、验证、部署、监控和独立审查相关的条款中。对于复杂的AI模型来说,遵守这些条款将具有挑战性。使用第三方AI模型将加剧这些挑战。金融机构越来越多地采用人工智能(AI)正在改变其运营、风险管理和客户互动方式。然而,复杂AI模型的有限可解释性,特别是在用于关键业务应用时,对金融机构和监管机构构成了重大挑战和问题。可解释性,即模型输出向人类解释的程度,对于透明度、问责制、监管合规性和消费者信任至关重要。然而,深度学习和大语言模型(LLM)等复杂AI模型通常难以解释。虽然现有的可解释性技术可以帮助揭示复杂AI模型的行为,但这些技术存在显著局限性,包括不准确性、不稳定性以及对误导性解释的易感性。 内容iv管理解释:监管机构如何应对人工智能可解释性问题第一部分——引言 ................................................................................................................................................................. 1 第二部分——MRM和可解释性 ........................................................................................................................................... 3 第三部分——在AI背景下执行可解释性要求所面临的挑战 .......................................... 7 3.1 现有解释人工智能模型的方法及潜在的局限性 .............................................. 7 3.2 应用现有需求面临的挑战 ......................................................................................... 10 第 4 节 – MRM 指南的潜在调整 .................................................................................................... 12 第 5 节 – 结论 .................................................................................................................................................................. 15 参考文献 .......................................................................................................................................................................................... 16 1 第一部分 – 简介管理解释:监管机构如何应对人工智能可解释性问题1 例如,IIF-EY(2025)表明,在金融机构与监管机构/监督机构就人工智能进行交流时,人工智能可解释性是他们提出的主要问题。2 例如,意意联合银行已经使用机器学习来计算信用风险的监管资本。3 一个相关的——但通常被认为不同的——概念是可解释性。IBM 认为可解释性是专注于理解 AI 模型的内部工作机制,与旨在为模型输出提供理由的可解释性形成对比。4 参见 OCC 等人 (2021)。OCC (2021) 将 AI 可解释性定义为 AI 决策过程和结果被银行人员合理理解的程度。人工智能(AI)模型正越来越多地应用于金融机构的所有业务活动,从内部运营到面向客户的业务。Crisanto等人(2024)和FSB(2024)强调了金融领域最近的人工智能应用案例,发现大多数应用是为了提高内部生产效率。金融机构在使用人工智能进行关键业务应用方面似乎比较谨慎,尤其是那些涉及客户互动的应用。尽管如此,随着公司寻求从时间和成本效率、改善客户服务以及加强监管合规和风险管理中获益,预计人工智能的使用将变得更加普遍,包括在关键业务领域。某些AI模型结果的缺乏可解释性可能引发审慎关切。FINMA(2024)指出,某些AI模型结果无法被理解、解释或重现,因此无法进行批判性评估。某些AI模型的缺乏可解释性也可能使监管机构难以确定金融机构在模型使用方面是否符合现有的监管要求,特别是在关键业务领域。IAIS(2

立即下载
电子设备
2025-09-10
国际清算银行
Fernando Pérez-Cruz,Jermy Prenio,Fernando Restoy,Jeffery Yong
23页
1.03M
收藏
分享

[国际清算银行]:管理解释:监管机构如何应对人工智能可解释性问题,点击即可下载。报告格式为PDF,大小1.03M,页数23页,欢迎下载。

本报告共23页,只提供前10页预览,清晰完整版报告请下载后查看,喜欢就下载吧!
立即下载
本报告共23页,只提供前10页预览,清晰完整版报告请下载后查看,喜欢就下载吧!
立即下载
水滴研报所有报告均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
相关图表
公司单季度综合毛利率、归母净利率、期间费用率图6:公司单季度销售、管理、研发、财务费用率
电子设备
2025-09-10
来源:2Q25营收利润同比大幅增长,产品结构优化带动毛利率提升
查看原文
公司归母净利润及同比增速图4:公司单季度归母净利润及同比增速
电子设备
2025-09-10
来源:2Q25营收利润同比大幅增长,产品结构优化带动毛利率提升
查看原文
公司营业收入及同比增速图2:公司单季度营业收入及同比增速
电子设备
2025-09-10
来源:2Q25营收利润同比大幅增长,产品结构优化带动毛利率提升
查看原文
高通 8S gen4 芯片的更新
电子设备
2025-09-09
来源:电子行业专题报告:AI引领电子加速,推动中国经济高质量发展
查看原文
2024-2028 年全国 AIPC 出货量及渗透率预测情况
电子设备
2025-09-09
来源:电子行业专题报告:AI引领电子加速,推动中国经济高质量发展
查看原文
1Q25 全球前十大晶圆代工业者营收排名(单位:百万美元)
电子设备
2025-09-09
来源:电子行业专题报告:AI引领电子加速,推动中国经济高质量发展
查看原文
回顶部
报告群
公众号
小程序
在线客服
收起