公司实践
为什么”公司实践”是独立一轴
Section titled “为什么”公司实践”是独立一轴”行业自律(industry self-regulation)是当代 AI 治理的”大头”之一——在多个关键领域,公司自发布的 框架、政策、承诺早于并影响监管立法:
- Anthropic RSP(2023-09)早于 EU AI Act GPAI 章节(2024)和加州 SB 53(2025)
- NIST AI RMF(2023)的”风险管理”范式被多州法律吸纳作为”合规推定”路径
- Frontier Model Forum(2023)的行业共同语言成为白宫 Voluntary Commitments 的基础
- GPAI Code of Practice(2025)把行业自律正式化为 AI Act 合规推定工具
但 2025-2026 出现结构性松动:
- Anthropic RSP v3(2026-02)移除 pause 承诺
- OpenAI Preparedness v2(2025-04)简化阈值(删除 Low/Medium)
- Google DeepMind 2024 删除军事用途禁止
- xAI 拒绝行业自律范式
这揭示了行业自律的内在局限:无硬法约束时,自律的”底线”由最不自律的玩家定义。
本轴基于上述结构性视角收录已公开发布、可长期获取的公司自发布文档。每家公司下统一按 5 类材料组织。
归档原则与公司归属规则见 方法论 §3–4。
已收录(按国别)
Section titled “已收录(按国别)”模型层(前沿实验室)
Section titled “模型层(前沿实验室)”| 公司 | 安全框架 | 定位 | 专页 |
|---|---|---|---|
| Anthropic | RSP v3(2026-02,撤销 pause) | 安全优先 | anthropic |
| OpenAI | Preparedness v2(2025-04,简化阈值) | 商业化加速 | openai |
| Google DeepMind | FSF v3(2026-04,扩展 CCL + TCL) | 平衡派 | google-deepmind |
| xAI | 弱(无对标文档) | 反自律派 | xai |
基础设施层(上下游)
Section titled “基础设施层(上下游)”| 公司 | 角色 | 定位 | 专页 |
|---|---|---|---|
| NVIDIA | AI GPU 单寡头 + 出口管制中心 | AI 革命的”卖铲人” | nvidia |
| 公司 | 安全框架 | 定位 | 专页 |
|---|---|---|---|
| Mistral AI 🇫🇷 | 无独立框架;靠开源 + GPAI CoP 签署 | 欧洲主权 AI | mistral |
| 公司 | 安全框架 | 定位 | 专页 |
|---|---|---|---|
| 百度 Baidu | 无独立;参与国家标准制定(TC260) | 国家队 | baidu |
| 阿里巴巴 Alibaba | 无独立;全线开源(Qwen) | 开源生态 | alibaba |
| 字节跳动 ByteDance | 无独立;嵌入式合规(CAC + 党委) | 全球撕裂 | bytedance |
| 腾讯 Tencent | 无独立;多模态全线开源(Hunyuan) | 平台型 AI | tencent |
| 公司 | 安全框架 | 定位 | 专页 |
|---|---|---|---|
| 智谱 ZhipuAI | 无独立;港股已上市 2513.HK | 国家队 + 学术出身 | zhipuai |
| 月之暗面 Moonshot | 无独立;开源 Kimi K2.5 | 长上下文 + 付费突围 | moonshot |
| MiniMax | 无独立;Talkie 海外成功 | AI 陪伴 + 出海 | minimax |
| DeepSeek | 无独立;极限开源(MIT) | 2025-01 “DeepSeek moment” | deepseek |
三种自律模式对比
Section titled “三种自律模式对比”美国前沿实验室的”结构化自律”:
- 发布独立的安全框架(RSP / Preparedness / FSF)
- 对外公开承诺能力门槛 → 缓解措施的映射
- 参与行业协调(Frontier Model Forum、GPAI CoP)
- 2025-2026 整体松动(Anthropic 撤销 pause、OpenAI 简化、Google 删除军事禁止)
欧盟的”制度化自律”:
- 独立企业自律较少(Mistral 也无 RSP 对标)
- 通过GPAI Code of Practice 签署获得合规推定
- 开源 + 强法律组合作为透明度机制
- 自律与 AI Act 高度耦合
中国的”嵌入式自律”:
- 没有独立的企业安全框架文档
- 自律 = 参与国家标准制定(TC260-003、AI 安全治理框架)
- 合规通过 CAC 算法备案 + 党委内部协调实现
- 开源成为事实上的透明度机制(阿里 Qwen / 百度 ERNIE 部分 / DeepSeek 极限)
跨辖区观察(2026 Q1 快照)
Section titled “跨辖区观察(2026 Q1 快照)”GPAI Code of Practice 签署矩阵
Section titled “GPAI Code of Practice 签署矩阵”| 公司 | 签署 Transparency | Copyright | Safety & Security |
|---|---|---|---|
| Anthropic | ✅ | ✅ | ✅ |
| Google DeepMind | ✅ | ✅ | ✅ |
| Microsoft | ✅ | ✅ | ✅ |
| Mistral | ✅ | ✅ | ✅ |
| OpenAI | ✅ | ✅ | ⚠️ 部分保留 |
| Meta | ✅ | ⚠️ 异议 | ✅ |
| xAI | ✅ | ✅ | ❌ 异议 |
| 阿里 / 百度 / DeepSeek / 字节 | ❌ | ❌ | ❌ |
算力门槛与合规压力
Section titled “算力门槛与合规压力”- 加州 SB 53 10²⁶ FLOP 阈值:Claude Opus、GPT-5、Gemini Ultra、Grok 4、Llama 4 Max
- EU AI Act 10²⁵ FLOP 系统性风险:上述 + Mistral Large 2/3、可能 Qwen 3.5、ERNIE 5.0
- 中国备案:用户规模 ≥ 100 万触发安全评估(2026-04《拟人化办法》第 22 条)
- “安全优先”:Anthropic
- “加速第一”:OpenAI、xAI
- “理性安全”:Google DeepMind
- “主权 AI”:Mistral
- “服务国家”:百度
- “开源生态”:阿里、DeepSeek
- “地缘博弈”:字节(被动)
每家公司的收录结构(5 类材料)
Section titled “每家公司的收录结构(5 类材料)”- 使用政策(Usage / Acceptable Use Policy)—— 用户可否用模型做什么
- 模型卡 / 系统卡(Model Card / System Card)—— 模型能力、训练数据、评估
- 安全框架(Safety Framework)—— 负责任扩展、准备度、前沿风险管理
- 透明度报告(Transparency Report)—— 定期披露(数据请求、内容审核等)
- 红队与评估披露(Red-Team & Eval Disclosures)—— 第三方评估与红队披露
每份材料都带 snapshot_date、原文链接、本站归档副本(PDF 存 public/archives/)。
不做评判性表述,只罗列原文关键条款与客观差异。
v2 规划(视 v1 质量判断是否推进)
Section titled “v2 规划(视 v1 质量判断是否推进)”按 AI 密切度严格筛选后,以下公司可能在未来补充:
- 🇺🇸 美国:Meta(Llama 团队,重要但开源公司治理已可通过 Mistral 页面代表性覆盖)
- 🇪🇺 欧盟:Aleph Alpha、Stability AI、Black Forest Labs(已明确不补充)
- 🇨🇳 中国:百川智能 Baichuan、阶跃星辰 StepFun、零一万物 01.AI(AI 创业公司其他代表, 优先级中等)、华为(已明确不补)
当前重心:深化现有 13 家。5 家前沿实验室(Anthropic、OpenAI、Google DeepMind、ByteDance、 DeepSeek)的 5 类 subpage 已填充为实质分析;其余 8 家以综合 index 形式呈现,按公司活跃度决定 是否展开 subpage。