跳转到内容

Google DeepMind

🆕 2026-04-17 更新FSF v3.0 新增 Tracked Capability Levels (TCLs)—— 在 CCL 触发前提前预警;新增 “Harmful Manipulation” CCL(规制能系统性改变信念的 AI)。 Gemini 3 Pro 于 2025-11 发布配套 FSF Report(业界首个模型级 FSF 报告)。

  • 成立:2010(DeepMind, London)→ 2014 被 Google 收购 → 2023 与 Google Brain 合并为 Google DeepMind
  • 总部:London, UK(DeepMind 起源)+ Mountain View(Google)
  • 主要模型
    • Gemini 3 系列(2025-11:3 Pro;后续 Ultra / Flash)
    • Imagen、Veo、Lyria(多模态生成)
    • AlphaFold(生物)、AlphaGeometry、AlphaProof(数学)
    • Project Astra(多模态代理)
  • 商业模式:Google Cloud Vertex AI、Gemini App、深度整合 Google 产品矩阵(Search / Workspace / Android)
  • 独特性是三大前沿实验室中唯一有完整上市母公司(Alphabet 的财务纪律)+ 最深的跨领域研究(AlphaFold 等科学 AI)

深度分析:FSF 的三阶段演进与 CCL 方法论

Section titled “深度分析:FSF 的三阶段演进与 CCL 方法论”
版本日期核心变化
v1.02024-05-17首发 Frontier Safety Framework。建立 CCL(Critical Capability Levels)概念
v2.02025-02增加 CBRN 细化;强化模型级 FSF Report 要求
v3.02026-04-17新增 TCLs 预警层;新增 “Harmful Manipulation” CCL

CCL(Critical Capability Level)方法论

Section titled “CCL(Critical Capability Level)方法论”

FSF 核心创新:不用简单的”能力等级”,而用跨领域的 CCL 清单

  • Cyber capabilities CCL:能规模化发动网络攻击、利用漏洞
  • Autonomous ML research CCL:能自主推进 AI 研发(与 OpenAI “Self-improvement”对标)
  • Harmful manipulation CCL(2026-04 新增):能系统性、大幅改变信念和行为,产生”严重规模”伤害
  • CBRN CCLs:生化武器能力

流程

  1. Early Warning Evaluations:每个重要模型在训练完成后做 CCL 评估
  2. 若未达 CCL → 正常部署
  3. 若达到 CCL → 延迟部署或强化缓解措施发布 FSF Report 公开论证
  4. 重大能力提升 → 重新评估

Tracked Capability Levels:在 CCL 之前的预警层。

意义:

  • “看到风险苗头就追踪”,不等到触发 CCL 才反应
  • 补充 CCL 体系”要么触发要么不触发”的二元性
  • 对比 OpenAI v2(仅 High / Critical 两档):DeepMind 现在有 TCL → CCL → (exceed CCL) 三档

这是业界首个模型级 FSF 公开报告

  • 披露哪些 CCL 被评估
  • 披露评估结果(未达 CCL)
  • 披露使用的评估方法
  • 为其他实验室发布同类报告提供模板

与 Anthropic RSP / OpenAI Preparedness 对比

Section titled “与 Anthropic RSP / OpenAI Preparedness 对比”
维度Google DM FSF v3Anthropic RSP v3OpenAI Preparedness v2
核心概念CCL + TCL(跨领域)ASL 等级风险类别 × 阈值
预警层TCL(2026-04 新增)无明确”research categories”(弱)
操纵能力新增专门 CCL说服作为 ASL 考虑因素观察清单中
模型级报告Gemini 3 Pro FSF Report(业界首个)个别 Model Card + Risk ReportsSystem Cards
pause 承诺无明确(措辞模糊)v3 移除
被批评点TCL 门槛模糊放弃 pausearxiv 批评”不保证”

关键观察DeepMind 在 2026 逆流而动——在 Anthropic 弱化、OpenAI 简化的同时 DeepMind 扩展了 FSF(加 TCL + 操纵 CCL)。一个解释:Alphabet 母公司的品牌声誉约束更强; 另一解释:DeepMind 科研文化与商业化团队的内部张力让安全承诺更难松动。

AI Principles 的演变:2024 军事使用条款撤销

Section titled “AI Principles 的演变:2024 军事使用条款撤销”

7 项积极原则(对社会有益 / 避免创造或加剧不公平偏见 / 安全可控 / 问责 / 隐私 / 科学卓越 / 合规使用)

  • 4 类”我们不会追求的 AI 应用”
  1. 会造成或可能造成整体伤害的技术
  2. 武器或其他主要用途为造成人员伤害的技术
  3. 违反国际公认准则的监控技术
  4. 违反国际法和人权的应用

使 Google 成为第一个公开拒绝军事 AI 用途的科技巨头

2024-02 Google 更新 AI Principles,删除了四类”我们不会追求”清单。新版仅有原则性表述, 无明确禁止类别。

争议

  • Google 内部员工公开信反对(2024-02,数百名员工联署)
  • Bloomberg 等媒体解读为”为 Project Nimbus(以色列国防合作)+ 其他军事合同铺路”
  • Google 官方解释为”清单化的负面列表过于僵化;新版更灵活”

行业影响其他前沿实验室跟进。Anthropic 2025 接受 $200M DoD 合同; OpenAI 与 Palantir 建立合作伙伴关系;军事 AI 已不再是前沿实验室的禁区

  • Project Nimbus(2021-2024):Google + Amazon 向以色列政府提供 $1.2B 云服务合同
  • 2024 内部员工罢工后仍继续
  • 对 Google 的 AI 原则修订构成压力因素
类型文档名链接本站子页
使用政策Generative AI Prohibited Use Policypolicies.google.com/terms/generative-ai/use-policyusage-policy
模型卡Gemini 3 Pro / 2.5 等 Model Cardsdeepmind.google/technologies/geminimodel-card
安全框架FSF v3.0 (2026-04-17)storage.googleapis.com/…/frontier-safety-framework_3.pdfsafety-framework
模型级 FSF ReportGemini 3 Pro FSF Report (2025-11)storage.googleapis.com/…/gemini_3_pro_fsf_report.pdf
透明度报告Responsibility & Safety Hubdeepmind.google/about/responsibility-safetytransparency-report
AI 原则Google AI Principles(2024 修订版)ai.google/responsibility/principlesred-team-disclosures
  • 2023 White House Voluntary Commitments:首批签署
  • Frontier Model Forum:创始成员
  • 加州 SB 53:立场模糊
  • EO 14179 / 14365:未明确表态
  • GPAI Code of Practice完整签署(2025-08-01 首批)
  • Gemini 3 Pro 超 10²⁵ FLOP 阈值,触发 AI Act 系统性风险义务
  • CNIL(法国):对 Gemini 的 GDPR 合规审视
  • 不在中国大陆提供 Gemini 消费者服务
  • Google Cloud 部分企业服务通过合作方
  • Search / YouTube 被封,移动业务受限
  • 总部所在地
  • UK AI Safety Institute 深度合作(预部署测试)
  • 2024 Bletchley / 2025 Seoul / 2025 Paris AI Summit 签署所有主要声明
  • 2025-2026 与主权基金 / 政府建立深度基础设施合作(Gemini 本地化部署)

行业自律立场:“理性安全派”的立场

Section titled “行业自律立场:“理性安全派”的立场”

Google DeepMind 在三大前沿实验室中相对平衡

  • 不像 Anthropic 那样以安全为品牌核心
  • 不像 OpenAI 那样明显转向商业化加速
  • FSF 2026 扩展是反例:在行业松动时反而收紧

结构性支撑

  1. Alphabet 母公司财务稳定:不需要靠 AI 盈利急于扩张
  2. DeepMind 科研文化:核心团队(Demis Hassabis 等)不完全以商业收入为导向
  3. 品牌声誉:Google 搜索历史让反歧视 / 信任成为品牌核心资产

但也有裂痕

  • 2024 AI 原则修订是商业压力的明证
  • Project Nimbus 争议
  • 2024 Gemini 图像生成”历史扭曲”事件(种族错置)曾引发内部整改