跳转到内容

人工智能安全治理框架 1.0 / 2.0

📑 法律位阶:第 4 级 · 规范性文件(不是部门规章,不是法律) | 发布:TC260 受网信办指导 | 1.0 生效:2024-09-09 | 2.0 生效:2025-09-15 | 属性:软法 · 政策性引导

⚠️ 位阶提醒:本文件是规范性文件(第 4 级),位阶在部门规章之下、技术标准之上。 不具有直接法律约束力,但对企业合规实务有强引导。 详见 中国规则索引

《人工智能安全治理框架》由**全国网络安全标准化技术委员会(TC260)**受国家互联网信息办公室指导发布。 1.0 版本于 2024-09-09 在第三届中国网络文明大会上正式公布,2.0 版本于 2025-09-15 发布。

重要意义:这是中国首个跨场景的 AI 风险分类分级体系,标志着中国 AI 治理从**场景化 (“一类场景一部规章”)向体系化(统一风险坐标系)**的战略转型。

根据毕业论文(张凌寒等观点):

  • 1.0 首次建立跨场景的风险分类分级体系
  • 2.0 进一步完善”从风险识别到治理应对的完整链条”
  • 标志中国 AI 治理正从”政策驱动”迈向更稳定的”法治化治理

The AI Safety Governance Framework, issued by TC260 under the guidance of CAC (v1.0 on 2024-09-09; v2.0 on 2025-09-15), is China’s first cross-scenario risk classification and mitigation scheme for AI — a turning point from the scenario-specific regulatory approach (2022-2025) toward a more systemic, horizontal governance paradigm.

  1. 包容审慎,确保安全
  2. 风险导向,敏捷治理
  3. 技管结合,协同应对
  1. 模型算法安全风险:可解释性差、偏见歧视、鲁棒性不足、被盗用
  2. 数据安全风险:训练数据违规、个人信息泄露、数据污染
  3. AI 系统安全风险:对抗攻击、后门、供应链
  4. AI 应用安全风险
    • 社会伦理:算法歧视、信息茧房
    • 数字信任:深度合成滥用、信息造假
    • 网络空间:AI 赋能的网络攻击
    • 经济就业:替代效应
    • 国家安全:恐怖主义、军事民用两用

针对每类风险给出技术措施治理措施清单。

相比 1.0,2.0 的主要深化:

  • 风险分类分级更细:在四类大项下建立更精细的风险图谱
  • 治理主体责任:明确模型开发者、服务提供者、用户三方的差异化责任
  • 全生命周期覆盖:从研发 → 部署 → 运营 → 退役的全链条要求
  • 应对 Agent / 具身智能等新形态:1.0 未涉及,2.0 纳入
  • 治理能力建设:评估体系、监测预警、应急响应
  • 作为上位引导:为 TC260-003 等技术标准提供风险分类框架
  • 与部门规章并行:不修改既有《深度合成》《生成式 AI 办法》等,但提供跨规章的统一风险语言
  • 与国际对接:是中国参与全球 AI 治理(如联合国、G20、BRICS 对话)的重要文本载体
  • 合规基线升级:从”满足各部门规章”升级到”对照框架风险分类做体系化自查”
  • 内部治理文档:头部企业已开始以此框架为骨架构建内部 AI 治理手册
  • 面向监管的表达语言:备案答辩、监管约谈时沿用框架术语有助于沟通
  • 对标 EU AI Act 风险分级:但 AI Act 是硬法 + 清单化;本框架是软法 + 分类引导
  • 对标 NIST AI RMF:两者都是跨场景风险管理框架;但 NIST 更强调流程,本框架更强调风险清单
版本来源链接
1.0(中文)网信办 / TC260cac.gov.cn
1.0(中英对照 PDF)TC260tc260.org.cn
2.0(中文)网信办 / TC260
English2024 正式对外发布有官方英文版,参见 TC260 / 网信办英文站
日期事件
2024-09-091.0 版本在第三届中国网络文明大会发布
2025-09-152.0 版本发布(第八届数字中国峰会 / WAIC 等场合)
未来版本可能继续迭代,重点对 Agent、具身智能的覆盖