跳转到内容

议题比较

三辖区立法密度热力图

横轴=年份,纵轴=议题;每格三小格分别对应中·美·欧的该年度该议题规则数量。颜色深浅 → 数量多少。

议题 ↓ 年份 →
2022
2023
2024
2025
2026
风险分级
CN 1
US 0
EU 0
CN 1
US 1
EU 0
CN 1
US 2
EU 1
CN 2
US 2
EU 1
CN 2
US 3
EU 2
前沿 / GPAI
CN 0
US 0
EU 0
CN 1
US 1
EU 0
CN 1
US 1
EU 1
CN 2
US 2
EU 2
CN 1
US 1
EU 1
数据与训练
CN 0
US 0
EU 0
CN 1
US 1
EU 0
CN 0
US 2
EU 1
CN 1
US 1
EU 1
CN 1
US 1
EU 1
内容标识
CN 1
US 0
EU 0
CN 2
US 0
EU 0
CN 0
US 1
EU 1
CN 2
US 1
EU 1
CN 2
US 1
EU 1
中国
美国
欧盟

观察

  1. 谁先动:标识议题中国 2022 起步(算法推荐)、2023 深度合成,美国 2024-2025 靠州法追上,欧盟 2024-2025 集中立法。
  2. GPAI 2025 同步发力:欧盟 GPAI CoP(7 月)、加州 SB 53(9 月)、中国 AI 安全治理框架 2.0(9 月)——三辖区同步密集。
  3. 数据训练列整体稀疏:美国主要靠法院判例推进,不立法;中国靠 PIPL+DSL 叠加(既有法延伸);欧盟靠 GDPR+AI Act 衔接。

计数为分析代理(重要一手规则),非穷举。详见 方法论(/methodology/)。

议题(topic)作为本站的分析单位

Section titled “议题(topic)作为本站的分析单位”

每个议题下统一有 概览 + 中国 + 美国 + 欧盟 四个页面,使用同一套比较框架 (见 方法论)。

议题页做横向分析:这三个辖区对同一个问题是怎么想的、差别在哪、争议在哪。 具体条文顶层规则 Rules地方层级 Subnational; 议题页引用它们,不复述。

议题页的分析框架(每页统一结构):

  1. 议题定位:为什么这是 AI 治理的独立议题
  2. 三辖区比较速览:一个表格看清结构性差异
  3. 学界讨论:引用学界主流论述(Bradford、薛澜、Anderljung、Farid、Solove 等)
  4. 核心争议:列举未决问题
  5. 行业实践视角:公司如何实际应对(链接到 公司实践
  6. 相关规则:交叉引用 Rules 页
Slug议题简述
risk-classification风险分级禁止 / 高风险 / 有限 / 最小风险等分级方法的差异;算力 vs. 用途 vs. 能力三种阈值
frontier-gpai前沿模型与通用目的 AI对 foundation model / GPAI 的专门义务;10²⁵ / 10²⁶ FLOP 阈值;Anthropic RSP / OpenAI Preparedness / Google FSF 的行业自律
data-training数据与训练训练数据合法基础、版权(fair use / TDM opt-out)、个人信息、训练数据摘要、跨境
content-labeling-provenance生成内容标识显式 / 隐式标识双轨;C2PA vs GB 45438;深度伪造的民主风险
  • Bradford (2023) Digital Empires美国 / 欧盟 / 中国三方数字治理比较的通用框架
  • Bradford (2020) The Brussels Effect:欧盟监管输出理论
  • Fjeld et al. (2020) “Principled Artificial Intelligence” (Berkman Klein):跨国 AI 原则图谱
  • Olivia 毕业论文《中美欧 AI 治理模式比较》(2026):“结构—制度—选择”三层框架—— 中国敏捷协同、美国自愿风控、欧盟合规前置
  • 风险分级:Bradford、薛澜、Veale & Borgesius、Engler (Brookings)、Matt Sheehan (Carnegie)
  • 前沿 GPAI:Anderljung et al. (GovAI)、Amodei / Christiano、Bengio / Hinton / Russell、 LeCun(反对派)、Hacker (ChatGPT 监管最早论文作者)
  • 数据训练:Solove、Lemley & Casey (Fair Learning)、Bender / Gebru (Stochastic Parrots)、 CNIL 指引(法国 DPA 权威)、Grimmelmann
  • 内容标识:Chesney & Citron(Deep Fakes 奠基)、Farid (UC Berkeley 法医 AI)、 Paris & Donovan、Kirchenbauer (文本水印)、C2PA 社群

v2 规划中(v1 不做,只留锚点)

Section titled “v2 规划中(v1 不做,只留锚点)”

这些议题已列入计划,v1 不做内容,等主要 4 个 v1 议题稳定后再推进:

  • High-Risk Systems 高风险系统(专注 EU AI Act 附件 III 的逐类解读)
  • Transparency & Disclosure 透明度与披露
  • Red-Teaming & Evaluation 红队测试与评估
  • Human Oversight 人类监督
  • Algorithm Registration 算法备案与登记(中国视角)
  • Bias & Discrimination 偏见与歧视
  • Minors Protection 未成年人保护(与 2026 中国拟人化办法、Character.AI 诉讼等高度相关)
  • Liability 责任分配
  • Cross-Border & Export Control 跨境与出口管制(BIS、CFIUS、Schrems、中国跨境三件套)

想推动某个议题上线,请在 GitHub Issues 提 “议题请求”。