中国 — 风险分级
| 规则 | 层级 | 与风险分级的关系 |
|---|---|---|
| 《生成式 AI 办法》 (2023) | 部门规章 | 第三条写明”分类分级监管”原则 |
| 《深度合成规定》 (2023) | 部门规章 | 按场景划分”可能导致公众混淆”类别 |
| 《算法推荐规定》 (2022) | 部门规章 | 分为”具有舆论属性或社会动员能力”和普通 |
| TC260-003-2024 | 技术规范 | 31 类风险,90% 安全通过率 |
| 科技伦理审查办法(试行) (2023) | 部门规章 | 第二十五条给出”清单”,触发专家复核 |
中国风险分级的三个特征
Section titled “中国风险分级的三个特征”1. 有”分类分级监管”原则,但无统一清单
Section titled “1. 有”分类分级监管”原则,但无统一清单”- 《生成式 AI 办法》第三条写:“对生成式人工智能服务实行包容审慎和分类分级监管”
- 《数据安全法》第二十一条:数据一般 / 重要 / 核心三级
- 至 2026-04,“生成式 AI 系统”的统一分级目录仍未发布
结果:名义有分级,执行上靠场景化专项规章堆叠。
2. 场景化 ≠ 风险分级
Section titled “2. 场景化 ≠ 风险分级”中国实际的”分层”靠把场景拆开单独规制:
- 深度合成 → 一套规则
- 生成式 AI → 另一套
- 算法推荐 → 第三套
- 有舆论属性 / 社会动员能力 → 强化备案
这更接近场景清单而非”风险分级”。跨场景的统一强度标尺不存在。
3. 备案制是事实筛选器
Section titled “3. 备案制是事实筛选器”- 达到一定能力 / 面向公众 / 有舆论属性 → 必须算法备案
- 备案审查以 TC260-003 为标尺,实质上构成”二元风险闸门”(通过 / 不通过)
- 而未备案 = 无法合法面向公众服务
这是与 EU 四级分层最大的差异:欧盟的分级结果是不同强度的义务;中国的”备案”结果是通过或不通过。
科技伦理审查”清单”的分层作用
Section titled “科技伦理审查”清单”的分层作用”科技伦理审查办法 第二十五条建立前置清单:
触发专家复核的 AI 类:
- 具有舆论社会动员能力和社会意识引导能力的算法
- 面向安全、人身健康风险场景的自动化决策
- 具有较强心理情感影响的人机融合系统
这是中国最接近 EU “高风险清单”的前置性清单,但位于研发立项阶段,不是产品上市分级。
与 EU / US 的对比
Section titled “与 EU / US 的对比”- 与 EU:EU 有统一 4 级清单,中国没有。EU 看”系统”,中国看”服务场景”
- 与 US:中国更系统化(至少有多部规章覆盖),但 US 的州法(Colorado AI Act)反而有较明确的”high-risk AI system”定义