欧盟 — 风险分级
EU AI Act 四级风险金字塔
鼠标悬停 / 点击每级查看定义、条款出处、示例与适用时间。
| 规则 | 条款 | 与风险分级的关系 |
|---|---|---|
| EU AI Act | 第 5 / 6 / 50 / 51 条 | 四级分层 + GPAI 通道 |
| GPAI Code of Practice | 第 56 条 | GPAI 合规推定路径 |
| GDPR | 第 35 条 | DPIA 的”高风险”独立认定 |
| DSA | 第 34 条 | VLOP 系统性风险评估 |
| Digital Omnibus Proposal | — | 提议推迟高风险条款至 2027-12 |
| Spain AESIA | 成员国 MSA | 欧盟首个 AI 专职监管 |
| France CNIL AI | GDPR × AI | 最活跃 DPA 之一 |
AI Act 的四级分类 + GPAI
Section titled “AI Act 的四级分类 + GPAI”第 1 级:不可接受的风险(禁止)
Section titled “第 1 级:不可接受的风险(禁止)”第 5 条 · 2025-02-02 起适用。
8 项明确禁止(参见 AI Act Rules 页):
- 潜意识 / 操纵技术造成伤害
- 利用脆弱性
- 社会评分
- 仅基于画像的预测性执法
- 无差别抓取构建面部识别库
- 工作 / 教育场所情绪识别
- 敏感特征生物识别分类
- 执法在公共空间的实时远程生物识别
第 2 级:高风险(重义务)
Section titled “第 2 级:高风险(重义务)”第 6 条 + 附件 III(独立用例)/ 附件 I(产品嵌入)。
独立用例(附件 III)共 8 类领域:
- 生物识别
- 关键基础设施
- 教育 / 职业培训
- 就业 / 人力管理
- 重要私人 / 公共服务(信贷、保险、公共福利)
- 执法
- 移民 / 边境 / 庇护
- 司法与民主程序
义务矩阵见 AI Act Rules 页。
第 3 级:有限风险(透明度)
Section titled “第 3 级:有限风险(透明度)”第 50 条 · 2026-08-02 起适用。
- 与自然人交互 AI(聊天机器人):告知
- 情绪识别 / 生物分类:告知
- 深度伪造:披露”AI 生成或操纵”
- 公共议题文本:披露(除非人工编辑)
- 生成式 AI 输出:机器可读标识(C2PA 等)
第 4 级:最低风险
Section titled “第 4 级:最低风险”自愿性最佳实践。
独立通道:GPAI(第 5 部分)
Section titled “独立通道:GPAI(第 5 部分)”两档:
- 所有 GPAI:训练文档 / 下游文档 / 版权 / 公开数据摘要
- 系统性风险 GPAI(≥ 10²⁵ FLOP):对抗性测试、事件报告、网络安全
与其他法规的交叉
Section titled “与其他法规的交叉”- GDPR DPIA(第 35 条):独立的”高风险处理”认定,覆盖范围不完全等同 AI Act 高风险
- DSA 系统性风险(第 34 条):VLOPs 对生成式 AI 相关风险的评估义务
- Product Liability Directive(2024/2853):事后责任层面的”缺陷”认定与 AI Act 合规互相引用
分级的操作性问题
Section titled “分级的操作性问题”- 附件 III 扩展性:委员会可通过授权法案扩展清单,第 6 条第 3 款例外(若不显著影响决定结果)是争议焦点
- 10²⁵ FLOP 阈值:训练后可动态提升,未来模型达到此值的会越来越多,“系统性风险”是否会”通货膨胀”
- 与和谐标准的绑定:符合 CEN-CENELEC 和谐标准 = 合规推定(第 40 条),标准制定进度是 2026 全面适用的关键路径
与中国 / 美国的对比
Section titled “与中国 / 美国的对比”- 体系化程度:EU > 中国 ≫ 美国(联邦)
- 可预测性:EU 义务清单最清晰;中国靠备案实务;美国联邦层面模糊
- GPAI 专章:EU 独有,中国靠 TC260-003 实质等效但非立法,美国此前 EO 14110 有雏形(现撤销)