跳转到内容

欧盟 — 风险分级

EU AI Act 四级风险金字塔

鼠标悬停 / 点击每级查看定义、条款出处、示例与适用时间。

禁止类 Unacceptable Risk 高风险 High-Risk 有限风险 Limited Risk 最低风险 Minimal Risk
规则条款与风险分级的关系
EU AI Act第 5 / 6 / 50 / 51 条四级分层 + GPAI 通道
GPAI Code of Practice第 56 条GPAI 合规推定路径
GDPR第 35 条DPIA 的”高风险”独立认定
DSA第 34 条VLOP 系统性风险评估
Digital Omnibus Proposal提议推迟高风险条款至 2027-12
Spain AESIA成员国 MSA欧盟首个 AI 专职监管
France CNIL AIGDPR × AI最活跃 DPA 之一

第 1 级:不可接受的风险(禁止)

Section titled “第 1 级:不可接受的风险(禁止)”

第 5 条 · 2025-02-02 起适用。

8 项明确禁止(参见 AI Act Rules 页):

  1. 潜意识 / 操纵技术造成伤害
  2. 利用脆弱性
  3. 社会评分
  4. 仅基于画像的预测性执法
  5. 无差别抓取构建面部识别库
  6. 工作 / 教育场所情绪识别
  7. 敏感特征生物识别分类
  8. 执法在公共空间的实时远程生物识别

第 6 条 + 附件 III(独立用例)/ 附件 I(产品嵌入)

独立用例(附件 III)共 8 类领域:

  • 生物识别
  • 关键基础设施
  • 教育 / 职业培训
  • 就业 / 人力管理
  • 重要私人 / 公共服务(信贷、保险、公共福利)
  • 执法
  • 移民 / 边境 / 庇护
  • 司法与民主程序

义务矩阵见 AI Act Rules 页

第 50 条 · 2026-08-02 起适用。

  • 与自然人交互 AI(聊天机器人):告知
  • 情绪识别 / 生物分类:告知
  • 深度伪造:披露”AI 生成或操纵”
  • 公共议题文本:披露(除非人工编辑)
  • 生成式 AI 输出:机器可读标识(C2PA 等)

自愿性最佳实践。

两档

  • 所有 GPAI:训练文档 / 下游文档 / 版权 / 公开数据摘要
  • 系统性风险 GPAI(≥ 10²⁵ FLOP):对抗性测试、事件报告、网络安全
  • GDPR DPIA(第 35 条):独立的”高风险处理”认定,覆盖范围不完全等同 AI Act 高风险
  • DSA 系统性风险(第 34 条):VLOPs 对生成式 AI 相关风险的评估义务
  • Product Liability Directive(2024/2853):事后责任层面的”缺陷”认定与 AI Act 合规互相引用
  1. 附件 III 扩展性:委员会可通过授权法案扩展清单,第 6 条第 3 款例外(若不显著影响决定结果)是争议焦点
  2. 10²⁵ FLOP 阈值:训练后可动态提升,未来模型达到此值的会越来越多,“系统性风险”是否会”通货膨胀”
  3. 与和谐标准的绑定:符合 CEN-CENELEC 和谐标准 = 合规推定(第 40 条),标准制定进度是 2026 全面适用的关键路径
  • 体系化程度:EU > 中国 ≫ 美国(联邦)
  • 可预测性:EU 义务清单最清晰;中国靠备案实务;美国联邦层面模糊
  • GPAI 专章:EU 独有,中国靠 TC260-003 实质等效但非立法,美国此前 EO 14110 有雏形(现撤销)