《人工智能安全治理框架》中文版
全国网络安全标准化技术委员会2024年9月人工智能安全治理框架1. 人工智能安全治理原则 ……………………………………12. 人工智能安全治理框架构成 ………………………………23. 人工智能安全风险分类 ……………………………………33.1 人工智能内生安全风险 ………………………………33.2 人工智能应用安全风险 ………………………………54. 技术应对措施 ………………………………………………74.1 针对人工智能内生安全风险 …………………………74.2 针对人工智能应用安全风险 …………………………95. 综合治理措施 ……………………………………………… 106. 人工智能安全开发应用指引 ……………………………… 126.1 模型算法研发者安全开发指引 ……………………… 126.2 人工智能服务提供者安全指引 ……………………… 136.3 重点领域使用者安全应用指引 ……………………… 146.4 社会公众安全应用指引 ……………………………… 15目 录- 1 -人工智能安全治理框架人工智能是人类发展新领域,给世界带来巨大机遇,也带来各类风险挑战。落实《全球人工智能治理倡议》,遵循“以人为本、智能向善”的发展方向,为推动政府、国际组织、企业、科研院所、民间机构和社会公众等各方,就人工智能安全治理达成共识、协调一致,有效防范化解人工智能安全风险,制定本框架。1. 人工智能安全治理原则秉持共同、综合、合作、可持续的安全观,坚持发展和安全并重,以促进人工智能创新发展为第一要务,以有效防范化解人工智能安全风险为出发点和落脚点,构建各方共同参与、技管结合、分工协作的治理机制,压实相关主体安全责任,打造全过程全要素治理链条,培育安全、可靠、公平、透明的人工智能技术研发和应用生态,推动人工智能健康发展和规范应用,切实维护国家主权、安全和发展利益,保障公民、法人和其他组织的合法权益,确保人工智能技术造福于人类。1.1 包容审慎、确保安全。鼓励发展创新,对人工智能研发及应用采取包容态度。严守安全底线,对危害国家安全、社会公共利益、公众合法权益的风险及时采取措施。人工智能安全治理框架(V1.0)- 2 -人工智能安全治理框架1.2 风险导向、敏捷治理。密切跟踪人工智能研发及应用趋势,从人工智能技术自身、人工智能应用两方面分析梳理安全风险,提出针对性防范应对措施。关注安全风险发展变化,快速动态精准调整治理措施,持续优化治理机制和方式,对确需政府监管事项及时予以响应。1.3 技管结合、协同应对。面向人工智能研发应用全过程,综合运用技术、管理相结合的安全治理措施,防范应对不同类型安全风险。围绕人工智能研发应用生态链,明确模型算法研发者、服务提供者、使用者等相关主体的安全责任,有机发挥政府监管、行业自律、社会监督等治理机制作用。1.4 开放合作、共治共享。在全球范围推动人工智能安全治理国际合作,共享最佳实践,提倡建立开放性平台,通过跨学科、跨领域、跨地区、跨国界的对话和合作,推动形成具有广泛共识的全球人工智能治理体系。2. 人工智能安全治理框架构成基于风险管理理念,本框架针对不同类型的人工智能安全风险,从技术、管理两方面提出防范应对措施。同时,目前人工智能研发应用仍在快速发展,安全风险的表现形式、影响程度、认识感知亦随之变化,防范应对措施也将相应动态调整更新,需要各方共同对治理框架持续优化完善。2.1 安全风险方面。通过分析人工智能技术特性,以及在不同行业领域应用场景,梳理人工智能技术本身,及其在应用过程中面临的各种安全风险隐患。2.2 技术应对措施方面。针对模型算法、训练数据、算力设施、产品服务、应用场景,提出通过安全软件开发、数据质量提升、安全建设运维、测评监测加固等技术手段提升人工智能产品及应用的安全性、公平性、可靠性、鲁棒性- 3 -人工智能安全治理框架的措施。2.3 综合治理措施方面。明确技术研发机构、服务提供者、用户、政府部门、行业协会、社会组织等各方发现、防范、应对人工智能安全风险的措施手段,推动各方协同共治。2.4 安全开发应用指引方面。明确模型算法研发者、服务提供者、重点领域用户和社会公众用户,开发应用人工智能技术的若干安全指导规范。3. 人工智能安全风险分类人工智能系统设计、研发、训练、测试、部署、使用、维护等生命周期各环节都面临安全风险,既面临自身技术缺陷、不足带来的风险,也面临不当使用、滥用甚至恶意利用带来的安全风险。3.1 人工智能内生安全风险3.1.1 模型算法安全风险(a)可解释性差的风险。以深度学习为代表的人工智能算法内部运行逻辑复杂,推理过程属黑灰盒模式,可能导致输出结果难以预测和确切归因,如有异常难以快速修正和溯源追责。(b)偏见、歧视风险。算法设计及训练过程中,个人偏见被有意、无意引入,或者因训练数据集质量问题,导致算法设计目的、输出结果存在偏见或歧视,甚至输出存在民族、宗教、国别、地域等歧视性内容。(c)鲁棒性弱风险。由于深度神经网络存在非线性、大规模等特点,人工智能易受复杂多变运行环境或恶意干扰、诱导的影响,可能带来性能下降、决策错误等诸多问题。- 4 -人工智能安全治理框架(d)被窃取、篡改的风险。参数、结构、功能等算法核心信息,面临被逆向攻击窃取、修改,甚至嵌入后门的风险,可导致知识产权被侵犯、商业机密泄露,推理过程不可信、决策输出错误,甚至运行故障。(e)输出不可靠风险。生成式人工智能可能产生 “幻觉”,即生成看似合理,实则不符常理的内容,造成知识偏见与误导。(f)对抗攻击风险。攻击者通过创建精心设计的对抗样本数据,隐蔽地误导、影响,以至操纵人工智能模型,使其产生错误的输出,甚至造成运行瘫痪。3.1.2 数据安全风险(a)违规收集使用数据风险。人工智能训练数据的获取,以及提供服务与用户交互过程中,存在未经同意收集、不当使用数据和个人信息的安全风险。(b)训练数据含不当内容、被 “投毒” 风险。训练数据中含有虚假、偏见、侵犯知识产权等违法有害信息,或者来源缺乏多样性,导致输出违法的、不良的、偏激的等有害信息内容。训练数据还面临攻击者篡改、注入错误、误导数据的“投毒”风险,“污染”模型的概率分布,进而造成准确性、可信度下降。(c)训练数据标注不规范风险。训练数据标注过程中,存在因标注规则不完备、标注人员能力不够、标注错误等问题,不仅会影响模型算法准确度、可靠性、有效性,还可能导致训练偏差、偏见歧视放大、泛化能力不足或输出错误。(d)数据泄露风险。人工智能研发应用过程中,因数据处理不当、非授权访问、恶意攻击、诱导交互等问题,可能导致数据和个人信息泄露。3.1.3 系统安全风险(a)缺陷、后门被攻击利用风险。人工智能算法模型设计、训练和验证的标准接口、特性库和工具包,以及开发界面和执行平台可能存在逻辑缺陷、- 5 -人工智能安全治理框架漏洞等脆弱点,还可能被恶意植入后门,存在被触发和攻击利用的风险。(b)算力安全风险。人工智能训练运行所依赖的算力基础设施,涉及多源、泛在算力节点,不同类型计算资源,面临算力资源恶意消耗、算力层面风险跨边界传递等风险。(c)供应链安全风险。人工智能产业链呈现高度全球化分工协作格局。但个别国家利用技术垄断和出
《人工智能安全治理框架》中文版,点击即可下载。报告格式为PDF,大小3.49M,页数19页,欢迎下载。
