跳转到内容

风险分级

“风险分级”是 AI 治理最核心的工程设计问题:监管强度应随风险上升而增加,但”风险”如何界定、谁来界定、用什么单位——是三个辖区差异最大的维度。

辖区分层依据层数触发机制代表工具
🇪🇺 欧盟用途 / 场景(附件 III 清单)+ 算力(GPAI 10²⁵ FLOP)4 层(禁止 / 高风险 / 有限风险 / 最低风险)+ GPAI 独立通道清单列举 + 算力阈值AI Act 第 5 / 6 / 50 / 51 条
🇨🇳 中国服务类型(深度合成 / 生成式 / 算法推荐 / 拟人化)+ 算力 / 用户规模事实分层(各部门规章独立)场景清单 + 100 万用户门槛 + 备案《生成式 AI 办法》 · TC260-003 · 人工智能安全治理框架
🇺🇸 美国联邦:流程化(NIST AI RMF 按 context)/ 州:后果性决策 + 算力联邦无统一;州各异州法独立定义NIST AI RMF + Colorado AI Act + California SB 53
  • Veale & Zuiderveen Borgesius (2021) “Demystifying the Draft EU Artificial Intelligence Act” (Computer Law Review International):最早系统分析 AI Act 草案,批评附件 III 清单是 “政治妥协而非风险科学”
  • Smuha, Ahmed-Rengers, Harkens et al. (2021) “How the EU Can Achieve Legally Trustworthy AI” :从基本权利视角对 AI Act 的系统性评估
  • Bradford (2020) The Brussels Effect(Oxford):AI Act 作为”欧盟监管输出”的理论样本
  • Engler (Brookings):持续追踪 AI Act 实施过程中的漏洞与修补(对 GPAI 条款尤其细致)
  • Mueller (CEPS):对 AI Act 高风险清单的动态扩展和合规推定机制的持续评论

中国 “场景化 + 敏捷治理” 的学术解读

Section titled “中国 “场景化 + 敏捷治理” 的学术解读”
  • 薛澜(清华公管学院):提出”包容审慎、敏捷有效”,是中国 AI 治理范式的官方 / 学术 通用表述
  • 张凌寒(华东政法大学)
    • 提出中国治理是”场景化事前监管”——不按风险等级分,按服务形态分
    • 呼吁从”政策驱动”向”法治化治理”过渡
  • Matt Sheehan (Carnegie Endowment)
    • “Tracing the Roots of China’s AI Regulations” (2024) 是英语学界最系统的中国 AI 规则演进分析
    • 指出中国的场景化路径早于 EU AI Act 的部分条款,存在反向影响
  • Paul Triolo:政策实务追踪,对中国”分类分级监管”原则的空壳状态持续指出
  • Olivia 毕业论文《中美欧 AI 治理模式比较》 (2026):构建”结构—制度—选择”三层框架, 对中国”敏捷协同”、美国”自愿风控”、欧盟”合规前置”的划分

美国”无统一分层”的结构性解释

Section titled “美国”无统一分层”的结构性解释”
  • Calo (University of Washington) “Artificial Intelligence Policy: A Primer and Roadmap” (2017) :美国 AI 治理分散主义的早期分析
  • Selbst & Barocas “The Intuitive Appeal of Explainable Machines”(FAccT 社群): 算法问责的结构性问题
  • Lehr & Ohm (2017) “Playing with the Data: What Legal Scholars Should Learn About Machine Learning”
  • Pasquale (2015) The Black Box Society算法不透明作为分层监管的前置问题
  • Ho & Casey (Stanford RegLab):联邦 AI 治理的实证分析
  • Engler (Brookings):对比 EU / 美国 AI 治理的持续工作
  • Anu Bradford (2023) Digital Empires(三辖区比较的通用框架)
  • Floridi et al. (2022) “CapAI: A Procedure for Conducting Conformity Assessment of AI Systems” :实施导向的 AI Act 工具开发
  • Fjeld et al. (2020) “Principled Artificial Intelligence” (Berkman Klein):跨国 AI 原则图谱
  • CAIDP (Center for AI & Digital Policy) 年度 AI and Democratic Values Index:跨国比较

1. “风险” 的计量单位:能力 vs. 用途 vs. 算力

Section titled “1. “风险” 的计量单位:能力 vs. 用途 vs. 算力”
  • EU AI Act:用途清单为主(附件 III)+ 算力为辅(GPAI 10²⁵ FLOP)
  • California SB 53:算力为主(10²⁶ FLOP)
  • 中国:服务类型为主(深度合成 / 生成式 / 算法推荐),算力未量化
  • 学界批评DeepSeek 2025-01 冲击 证明算力门槛不等于能力门槛—— 可以用少得多的算力达到前沿能力。这削弱了 EU 和加州基于算力的阈值设计
  • EU AI Act 附件 III 允许欧委会通过授权法案扩展清单
  • Veale 等批评:这给了欧委会过大的立法权力,绕开了正常立法程序
  • 中国的”场景化”立规本质上就是不断新增清单(2022 算法推荐 → 2023 深度合成 → 2023 生成式 → 2025 标识 → 2026 拟人化),每次新增即一部新规章
  • EU AI Act 第 5 条 8 项禁止(社会评分、预测性执法等)常被批评为意识形态驱动 (针对中国社会信用系统的回应)
  • 中国无明确”禁止清单”,通过各部门规章的”不得”条款分散处理
  • 美国联邦无禁止;加州 SB-1047(2024 被否决)曾拟引入
  • EU AI Act:符合协调标准 = 合规推定(第 40 条)—— 把判断权交给标准化机构
  • 美国:NIST AI RMF 在州法中作为”合规推定”入口
  • 中国:TC260-003 是事实合规标尺,通不过备案不能上线
  • 争议:合规推定是否让私营标准化机构承担过多公共政策裁量(Almada 2025 欧盟评论)

公司如何”对应”不同分层体系

Section titled “公司如何”对应”不同分层体系”
公司EU AI Act 触发加州 SB 53 触发中国备案触发对应策略
Anthropic✅ GPAI + 系统性风险✅ 10²⁶ FLOP 前沿未入中国RSP v3 ASL 等级(映射多数法规)
OpenAI✅ GPAI + 系统性风险未入中国Preparedness Framework v2 高 / 关键阈值
Google DeepMind✅ GPAI + 系统性风险未入中国FSF v3 Critical + Tracked CLs
Mistral✅ GPAI + 系统性风险⚠️(Mistral Large 3 约 10²⁶)未入中国GPAI CoP 签署 + 开源透明
Meta✅ 部分未入中国Frontier AI Framework v2
字节豆包未入未入✅ 深度合成 + 生成式CAC 备案 + TC260-003 合规
阿里 Qwen开源模型下载 → 欧盟潜在义务开源下载 → 加州潜在开源 + 国内备案

策略 1:跨辖区一致化文档(Anthropic / Google DeepMind)

  • 一套 RSP / FSF 文档同时映射 EU GPAI CoP、加州 SB 53、英国 AISI 测试
  • 优点:成本低;缺点:需要满足最严标准

策略 2:辖区分层应对(OpenAI / Mistral)

  • Preparedness Framework 为基准,各辖区补充本地合规文档
  • 优点:灵活;缺点:文档冗余 + 跨辖区一致性风险

策略 3:事实合规 + 最少披露(大多数中国公司)

  • 通过 CAC 备案 + TC260-003 满足中国要求
  • 不发布独立安全框架文档
  • 优点:合规成本低;缺点:国际扩张受限
  • Anthropic RSP v3(2026-02):放弃 pause 承诺,分离”单方承诺”vs.”行业共同义务”
  • OpenAI Preparedness v2(2025-04):简化为 High / Critical 两档
  • Google DeepMind FSF v3(2026-04)新增 Tracked Capability Levels (TCLs) 提前预警 + 新增 Harmful Manipulation CCL
  • California SB 53 生效(2026-01-01):美国首部专门针对前沿 AI 的州法
  • Trump EO 14365(2025-12):试图抢占州 AI 法律 → 加州 / 科州拒绝

参见 公司实践 各家公司页的”安全框架”部分(Anthropic / OpenAI / Google DeepMind 分析最深)。