一、框架总则
本框架聚焦人工智能(Artificial Intelligence,AI)治理领域,梳理全球范围内具备权威性、影响力的AI治理规则与体系,兼顾国际共识与中国本土实践,围绕AI治理(AI Governance)核心要义,明确治理逻辑、核心准则与实施方向,推动可信AI(Trustworthy AI)安全合规发展,实现技术创新与风险防控的双向平衡,助力构建权责清晰、开放包容、协同共治的AI发展生态。
二、全球有影响力的AI治理框架整理
2.1 国际主流AI治理框架
2.1.1 经合组织AI原则(OECD AI Principles)
作为全球首个达成多国共识的AI治理纲领性文件,由经济合作与发展组织(Organisation for Economic Co-operation and Development,OECD)发布,后续完成适配生成式AI(Generative AI)的更新迭代,被G20等国际组织采纳,是国际AI治理的基础遵循,主打负责任、普惠式AI发展。
核心准则:坚持包容增长与可持续发展、尊重人权与法治、保障透明可解释(Transparency and Explainability)、确保稳健安全可靠、落实问责追责(Accountability)五大核心原则。
核心亮点:立足多方协同治理,兼顾技术创新与公共利益,推动全球AI治理标准互认,适配各类AI技术形态与应用场景。
2.1.2 联合国教科文组织AI伦理建议书(UNESCO Recommendation on the Ethics of AI)
由联合国教育、科学及文化组织(United Nations Educational, Scientific and Cultural Organization,UNESCO)推出,是全球覆盖成员国数量最多的AI伦理治理文件,以“不伤害”为核心底线,侧重人权保障与社会伦理规范,填补全球AI伦理治理的规则空白。
核心准则:安全无害、公平非歧视(Fairness and Non-Discrimination)、隐私保护(Privacy Protection)、可持续发展、透明公开、有意义人类监督(Meaningful Human Oversight)、权责明晰。
核心亮点:强制要求开展AI伦理审查(AI Ethical Review),关注弱势群体权益,弥合全球数字鸿沟,强化全流程数据治理(Data Governance)。
2.1.3 欧盟人工智能法(EU AI Act)
全球首部专门针对AI的区域性法律,以风险分级管控(Risk-Based Regulation)为核心逻辑,构建刚性监管体系,实现AI治理从行业自律向法律规制的跨越,对全球AI立法与监管实践具有标杆性意义。
- 风险分级体系:
不可接受风险AI(Unacceptable Risk AI):明令禁止研发部署,如社会信用评分、无差别实时生物识别监控等;
高风险AI(High-Risk AI):实施严苛监管,覆盖关键基础设施、医疗诊疗、司法决策、教育招生等场景,需完成合规评估、第三方认证、全流程溯源;
有限风险AI(Limited Risk AI):强化透明度要求,如AI聊天机器人需主动标注AI生成身份;
最小风险AI(Minimal Risk AI):宽松监管,鼓励娱乐、基础工具类AI技术创新。
核心亮点:法律约束力极强,明确高额违规处罚标准,压实AI研发方、部署方、使用方全链条责任,聚焦算法可解释性(Algorithmic Explainability)与安全合规。
2.1.4 美国NIST AI风险管理框架(NIST AI RMF)
由美国国家标准与技术研究院(National Institute of Standards and Technology,NIST)发布,属于实操性极强的柔性治理指南,无强制认证要求,模块化设计适配各行业主体,助力构建系统化AI风险防控(AI Risk Prevention and Control)体系,被多国监管机构与企业参考借鉴。
核心职能:治理(Govern)、风险映射(Map)、风险测量(Measure)、风险处置(Manage)四大核心模块,形成风险闭环管理。
核心亮点:灵活适配性高,兼顾技术特性与行业差异,聚焦AI全生命周期(AI Lifecycle)风险管控,落地性突出。
2.2 中国AI治理框架体系
中国AI治理秉持发展和安全并重、创新与规范协同的核心理念,立足本土产业实践、接轨国际治理规则,构建“政策引领、标准支撑、法治保障、多元共治”的特色治理体系,持续输出AI治理的中国方案,核心框架兼具实操性与前瞻性。
2.2.1 核心政策与纲领文件
《人工智能安全治理框架2.0》:国家层面核心治理指南,划分技术内生、应用衍生、社会层面三类安全风险,明确全流程防控要求,强化AI安全评估(AI Security Assessment)与分类分级监管,筑牢AI安全底线。
《生成式人工智能服务管理暂行办法》:针对生成式AI服务监管(Generative AI Service Regulation)的专项规制,要求算法备案(Algorithm Filing)、内容显式标识、训练数据合规,压实服务提供者主体责任。
《全球人工智能治理倡议》:中国面向全球提出的治理主张,倡导共商共建共享、普惠共赢,反对技术垄断与阵营对抗,推动构建人类命运共同体,助力全球AI协同共治。
2.2.2 核心治理原则
坚持以人为本、智能向善,坚守国家安全、社会公共利益、公民合法权益三重底线;
坚持风险导向、敏捷治理,推行分类分级监管,精准化解算法偏见(Algorithmic Bias)、数据泄露等突出风险;
坚持技管结合、多方协同,统筹政府监管、企业自治、行业自律、社会监督四方力量;
坚持开放合作、包容互鉴,深度参与全球AI治理规则制定,推动治理经验共享与标准对接。
2.2.3 核心治理举措
聚焦高风险领域监管,对具备舆论属性、社会动员能力的AI服务,强制落实安全评估与算法备案;
强化数据安全与个人信息保护,规范训练数据采集、标注、存储、使用全流程,严守合规底线;
规范深度合成、生成式AI等技术应用,防范虚假信息传播,维护清朗网络空间;
健全伦理审查、应急处置、责任追究机制,打造全链条、闭环式治理模式。
三、全球AI治理框架核心共性
核心理念趋同:均坚守以人为本、安全可控、伦理向善的核心导向,杜绝AI技术滥用侵害人类权益;
管控逻辑一致:普遍采用风险分级管控模式,对高风险AI从严监管,低风险AI适度松绑,平衡创新与监管;
关键要求重合:重点聚焦数据合规、算法透明、人类监督、责任界定,防范算法偏见、安全漏洞等核心问题;
治理模式互通:倡导多方协同共治,推动政府、企业、行业、社会联动,兼顾国内治理与国际协作。
四、术语与名词(中英文对照)
本部分汇总文中核心AI治理术语与专有名词,统一整理为中英文对照格式,方便查阅与理解,覆盖治理核心概念、技术术语、监管要求等维度:
| 中文术语/名词 | 英文表述 |
|---|---|
| 人工智能 | Artificial Intelligence(AI) |
| AI治理 | AI Governance |
| 可信AI | Trustworthy AI |
| AI全生命周期 | AI Lifecycle |
| 风险分级管控 | Risk-Based Regulation |
| 算法可解释性 | Algorithmic Explainability |
| 有意义人类监督 | Meaningful Human Oversight |
| 算法偏见 | Algorithmic Bias |
| 生成式AI | Generative AI |
| AI伦理审查 | AI Ethical Review |
| 数据治理 | Data Governance |
| 隐私保护 | Privacy Protection |
| 公平非歧视 | Fairness and Non-Discrimination |
| 问责追责 | Accountability |
| 透明可解释 | Transparency and Explainability |
| AI安全评估 | AI Security Assessment |
| 算法备案 | Algorithm Filing |
| 高风险AI | High-Risk AI |