议题比较
三辖区立法密度热力图
横轴=年份,纵轴=议题;每格三小格分别对应中·美·欧的该年度该议题规则数量。颜色深浅 → 数量多少。
议题 ↓ 年份 →
2022
2023
2024
2025
2026
风险分级
CN 1
US 0
EU 0
CN 1
US 1
EU 0
CN 1
US 2
EU 1
CN 2
US 2
EU 1
CN 2
US 3
EU 2
前沿 / GPAI
CN 0
US 0
EU 0
CN 1
US 1
EU 0
CN 1
US 1
EU 1
CN 2
US 2
EU 2
CN 1
US 1
EU 1
数据与训练
CN 0
US 0
EU 0
CN 1
US 1
EU 0
CN 0
US 2
EU 1
CN 1
US 1
EU 1
CN 1
US 1
EU 1
内容标识
CN 1
US 0
EU 0
CN 2
US 0
EU 0
CN 0
US 1
EU 1
CN 2
US 1
EU 1
CN 2
US 1
EU 1
中国
美国
欧盟
观察
- 谁先动:标识议题中国 2022 起步(算法推荐)、2023 深度合成,美国 2024-2025 靠州法追上,欧盟 2024-2025 集中立法。
- GPAI 2025 同步发力:欧盟 GPAI CoP(7 月)、加州 SB 53(9 月)、中国 AI 安全治理框架 2.0(9 月)——三辖区同步密集。
- 数据训练列整体稀疏:美国主要靠法院判例推进,不立法;中国靠 PIPL+DSL 叠加(既有法延伸);欧盟靠 GDPR+AI Act 衔接。
计数为分析代理(重要一手规则),非穷举。详见 方法论(/methodology/)。
议题(topic)作为本站的分析单位
Section titled “议题(topic)作为本站的分析单位”每个议题下统一有 概览 + 中国 + 美国 + 欧盟 四个页面,使用同一套比较框架 (见 方法论)。
议题页做横向分析:这三个辖区对同一个问题是怎么想的、差别在哪、争议在哪。 具体条文见 顶层规则 Rules 和 地方层级 Subnational; 议题页引用它们,不复述。
议题页的分析框架(每页统一结构):
- 议题定位:为什么这是 AI 治理的独立议题
- 三辖区比较速览:一个表格看清结构性差异
- 学界讨论:引用学界主流论述(Bradford、薛澜、Anderljung、Farid、Solove 等)
- 核心争议:列举未决问题
- 行业实践视角:公司如何实际应对(链接到 公司实践)
- 相关规则:交叉引用 Rules 页
v1 议题(4 个)
Section titled “v1 议题(4 个)”| Slug | 议题 | 简述 |
|---|---|---|
| risk-classification | 风险分级 | 禁止 / 高风险 / 有限 / 最小风险等分级方法的差异;算力 vs. 用途 vs. 能力三种阈值 |
| frontier-gpai | 前沿模型与通用目的 AI | 对 foundation model / GPAI 的专门义务;10²⁵ / 10²⁶ FLOP 阈值;Anthropic RSP / OpenAI Preparedness / Google FSF 的行业自律 |
| data-training | 数据与训练 | 训练数据合法基础、版权(fair use / TDM opt-out)、个人信息、训练数据摘要、跨境 |
| content-labeling-provenance | 生成内容标识 | 显式 / 隐式标识双轨;C2PA vs GB 45438;深度伪造的民主风险 |
本站议题分析的理论资源
Section titled “本站议题分析的理论资源”跨辖区比较框架
Section titled “跨辖区比较框架”- Bradford (2023) Digital Empires:美国 / 欧盟 / 中国三方数字治理比较的通用框架
- Bradford (2020) The Brussels Effect:欧盟监管输出理论
- Fjeld et al. (2020) “Principled Artificial Intelligence” (Berkman Klein):跨国 AI 原则图谱
- Olivia 毕业论文《中美欧 AI 治理模式比较》(2026):“结构—制度—选择”三层框架—— 中国敏捷协同、美国自愿风控、欧盟合规前置
按议题的权威学者
Section titled “按议题的权威学者”- 风险分级:Bradford、薛澜、Veale & Borgesius、Engler (Brookings)、Matt Sheehan (Carnegie)
- 前沿 GPAI:Anderljung et al. (GovAI)、Amodei / Christiano、Bengio / Hinton / Russell、 LeCun(反对派)、Hacker (ChatGPT 监管最早论文作者)
- 数据训练:Solove、Lemley & Casey (Fair Learning)、Bender / Gebru (Stochastic Parrots)、 CNIL 指引(法国 DPA 权威)、Grimmelmann
- 内容标识:Chesney & Citron(Deep Fakes 奠基)、Farid (UC Berkeley 法医 AI)、 Paris & Donovan、Kirchenbauer (文本水印)、C2PA 社群
v2 规划中(v1 不做,只留锚点)
Section titled “v2 规划中(v1 不做,只留锚点)”这些议题已列入计划,v1 不做内容,等主要 4 个 v1 议题稳定后再推进:
- High-Risk Systems 高风险系统(专注 EU AI Act 附件 III 的逐类解读)
- Transparency & Disclosure 透明度与披露
- Red-Teaming & Evaluation 红队测试与评估
- Human Oversight 人类监督
- Algorithm Registration 算法备案与登记(中国视角)
- Bias & Discrimination 偏见与歧视
- Minors Protection 未成年人保护(与 2026 中国拟人化办法、Character.AI 诉讼等高度相关)
- Liability 责任分配
- Cross-Border & Export Control 跨境与出口管制(BIS、CFIUS、Schrems、中国跨境三件套)
想推动某个议题上线,请在 GitHub Issues 提 “议题请求”。