跳转到内容

中国 — 风险分级

规则层级与风险分级的关系
《生成式 AI 办法》 (2023)部门规章第三条写明”分类分级监管”原则
《深度合成规定》 (2023)部门规章按场景划分”可能导致公众混淆”类别
《算法推荐规定》 (2022)部门规章分为”具有舆论属性或社会动员能力”和普通
TC260-003-2024技术规范31 类风险,90% 安全通过率
科技伦理审查办法(试行) (2023)部门规章第二十五条给出”清单”,触发专家复核

1. 有”分类分级监管”原则,但无统一清单

Section titled “1. 有”分类分级监管”原则,但无统一清单”
  • 《生成式 AI 办法》第三条写:“对生成式人工智能服务实行包容审慎和分类分级监管”
  • 《数据安全法》第二十一条:数据一般 / 重要 / 核心三级
  • 至 2026-04,“生成式 AI 系统”的统一分级目录仍未发布

结果:名义有分级,执行上靠场景化专项规章堆叠。

中国实际的”分层”靠把场景拆开单独规制:

  • 深度合成 → 一套规则
  • 生成式 AI → 另一套
  • 算法推荐 → 第三套
  • 有舆论属性 / 社会动员能力 → 强化备案

这更接近场景清单而非”风险分级”。跨场景的统一强度标尺不存在

  • 达到一定能力 / 面向公众 / 有舆论属性 → 必须算法备案
  • 备案审查以 TC260-003 为标尺,实质上构成”二元风险闸门”(通过 / 不通过)
  • 未备案 = 无法合法面向公众服务

这是与 EU 四级分层最大的差异:欧盟的分级结果是不同强度的义务;中国的”备案”结果是通过或不通过

科技伦理审查”清单”的分层作用

Section titled “科技伦理审查”清单”的分层作用”

科技伦理审查办法 第二十五条建立前置清单

触发专家复核的 AI 类:

  • 具有舆论社会动员能力和社会意识引导能力的算法
  • 面向安全、人身健康风险场景的自动化决策
  • 具有较强心理情感影响的人机融合系统

这是中国最接近 EU “高风险清单”的前置性清单,但位于研发立项阶段,不是产品上市分级。

  • 与 EU:EU 有统一 4 级清单,中国没有。EU 看”系统”,中国看”服务场景”
  • 与 US:中国更系统化(至少有多部规章覆盖),但 US 的州法(Colorado AI Act)反而有较明确的”high-risk AI system”定义