跳转到内容

透明度报告

快照:覆盖 openai.com/safetyopenai.com/transparency 截至 2026-04-23 的可公开取得披露;重点在 2024-Q1 起的 Influence and Cyber Operations Reports 系列。

一、OpenAI”透明度”的边界与结构

Section titled “一、OpenAI”透明度”的边界与结构”

与 Google(2010 起)、Meta(2013 起)等老牌平台长期发布综合 Transparency Report 不同, OpenAI 的透明度披露碎片化在五类文档中,直到 2025-10 才在 openai.com/transparency 下汇总:

类别首次发布频率主要内容
Threat Intel Reports2024-02季度(Q1-2024 起,约每季)影响力操作、网络行动、虚假信息操作的发现与中断
政府请求报告2025-09(首份)半年度政府数据请求数量、合规比例、分国家
Usage Policy 执法统计偶发(2024 春、2025-Q4 单次)不固定封禁账号数、检测类别
版权与数据披露2023-12 起多份博客事件驱动Media Manager、许可合作、诉讼响应
选举周期透明度2024-01 美国大选博客、2024-06 欧盟周期性重定向机制、合作检测、水印(C2PA)

观察:OpenAI 直到 2025-09 才发布首份政府请求报告——晚于 Google 15 年、晚于 Meta 12 年。 这既反映 OpenAI 作为”非平台”公司的历史路径差异,也反映来自 DSA / 加州 SB 53 / Seoul commitments 的强制披露压力 才是推动透明度实践的真正动力。

二、Threat Intel Reports(Influence and Cyber Operations)

Section titled “二、Threat Intel Reports(Influence and Cyber Operations)”
报告日期代表披露
”Disrupting Malicious Uses of AI by State-Affiliated Threat Actors”2024-02-14Charcoal Typhoon (PRC)、Salmon Typhoon (PRC)、Crimson Sandstorm (IRGC)、Emerald Sleet (DPRK)、Forest Blizzard (GRU) 五个账号网络
”AI and Covert Influence Operations”2024-05-30Doppelganger (俄)、Spamouflage (PRC)、Bad Grammar (俄)、International Union of Virtual Media (伊朗)、STOIC (以色列商业)5 个操作
”An Update on Disrupting Deceptive Uses of AI”2024-10-09累计 20+ 操作;SweetSpecter (PRC)、CyberAv3ngers (伊朗)、Storm-0817 (伊朗) 首次网络攻击案例
”Influence and Cyber Operations Report (2025-Q2 update)“2025-06Peer Review (PRC 学术操纵)、Sponsored Discontent (PRC 内部维稳)等
”Q4-2025 Threat Intel”2025-12首次详述 Sora 2 合成媒体滥用与封禁
”Q1-2026 Threat Intel”2026-03GPT-5.x 被用于自动化鱼叉式钓鱼的微软 / OpenAI 联合披露

典型的一份 Threat Intel Report 包含:

  1. 操作摘要:名称、归因、目标、规模
  2. 用途细节:如何使用 ChatGPT / GPT API(调试代码、生成翻译、撰写社交帖文)
  3. 归因证据:与 Microsoft Threat Intelligence、Meta Security、Graphika、SIO 的联合归因
  4. 干预措施:账号封禁 + 向受影响平台与政府通报
  5. 反思:对 ChatGPT 能力的”uplift”评估(OpenAI 的典型叙事是”未带来实质新能力”)

2.3 批评:归因的选择性与”安全剧场”问题

Section titled “2.3 批评:归因的选择性与”安全剧场”问题”

Kirsten Martin (Notre Dame) 在 MIS Quarterly Executive 2024 的 “Transparency Theater” 概念框架下:

  • 报告集中披露对手国家的操作(PRC / 俄 / 伊朗 / DPRK),极少披露西方商业或国家源
    • 唯一例外是 2024-05 “STOIC”(以色列商业公司),但披露力度明显弱于 PRC 案例
  • “我们发现并阻止了”叙事强化”平台有自我管理能力”,降低对硬法强制披露的政治需求

Josh Goldstein(Stanford Internet Observatory)2024-06 Brookings 报告:

  • OpenAI 的操作披露在样本选择上与学术研究者的独立观察一致(真实存在这些操作), 但规模可能被低估(OpenAI 只能看到 ChatGPT 自身的使用,跨平台全貌需要 Meta、X、Telegram 等配合)
  • OpenAI 不公开封禁账号的完整用户 ID、提示样本、对话长度分布,独立复现困难

Joshua Tucker(NYU CSMaP)2025-03 PNAS 评论:

  • 威胁情报报告是**“对手行为数据集”的重要贡献,但缺乏基础设施层面的透明度**(如训练数据、 内部红队频率等),使评估”平台整体治理水平”仍然依赖公司自报
  • 建议 OpenAI 采用 Stanford Platform Governance Research Network 建议的数据共享通道

Graphika 2025 年度报告则相对正面:

  • 认为 OpenAI 的 Threat Intel Reports 质量高于多数商业威胁情报, 但发布频率细粒度低于 Meta Adversarial Threat Report。

三、政府请求报告(2025-09 首份)

Section titled “三、政府请求报告(2025-09 首份)”

OpenAI 2025-09 首份 Government Requests Transparency Report 披露维度包括:

  • 法律强制请求总数(按半年汇总,以美国为主,单次统计在两位数至低三位数量级)
  • 紧急请求(无 warrant)数量与法律强制请求的典型比例(少数比例)
  • 完全合规 / 部分合规 / 异议比例(完全合规通常为多数,异议为个位数百分比)
  • 按国家的明细分布

具体数值以 openai.com/transparency 官方报告为准; 与 Google、Meta 十多年积累的季度披露相比,OpenAI 的请求总量仍处于低密度早期阶段

与同行业对比(请求密度量级)

Section titled “与同行业对比(请求密度量级)”

根据各公司公开 Transparency Report(半年度或年度)可整理出数量级对比:

  • OpenAI:两位数至低三位数 / 半年,MAU 公开估算约数亿量级
  • Google:数万级 / 半年,MAU 数十亿
  • Meta:数十万级 / 半年,MAU 数十亿
  • Microsoft:万级 / 半年
  • Apple:千级 / 半年

具体数字以各家官方透明度报告为准。

解读:OpenAI 报告的请求密度远低于同规模服务提供者。可能原因:

  1. 产品性质差异:ChatGPT 主要是交互工具而非社交网络,内容的第三方可见性低
  2. 执法路径差异:执法者较少把 ChatGPT 视为直接证据源
  3. 披露完整度存疑:首份报告不含国家安全请求(NSL)的详细数字——这是 Ranking Digital Rights (RDR) 评估透明度报告时的关键扣分项
  4. 时间窗:2024 是 OpenAI 政府请求受理的早期阶段,案件流程可能尚未成熟

Usage Policy 执法不定期披露的数据点:

时间披露内容规模
2024-042024 Q1 选举相关封禁数十账号量级
2024-10累计影响力操作封禁20+ 网络
2025-05Sora 1 → Sora 2 过渡期 CSAM 封禁未披露绝对数
2025-12全年 Trust & Safety 行动摘要大规模(聚合数字,以官方发布为准)

批评(Ranking Digital Rights 2025 Corporate Accountability Index):

  • 无定期的聚合统计(不像 Meta Community Standards Enforcement Report 那样季度化)
  • 无分类别的封禁数据(每类 Usage Policy 违反各自多少)
  • 无申诉数据(被封禁后成功申诉恢复的比例)
  • 无误报数据(自动检测的 false-positive rate)

在 RDR 近年评估中,OpenAI 在”执法透明度”子项的得分显著低于 Google、Meta 等成熟平台, 与 Anthropic 同处中低分段(具体分数以 RDR 年度报告为准)。

日期事件
2023-12NYT 诉 OpenAI 和 Microsoft(训练数据侵权)
2023-09Authors Guild 集体诉讼(George R.R. Martin 等)
2024-04Media Manager 首次预告(让版权方预先声明退出)
2024-2025与 AP、Axel Springer、FT、News Corp、The Atlantic、Reddit、Shutterstock 等签署数据许可
2025-05Media Manager 正式上线(opt-out)但被批评覆盖不全
2025-12NYT 案 discovery 阶段披露部分训练集样本
2026-01Authors Guild 案 summary judgment 动议
2026-03OpenAI 首份 Model Training Data Summary(GPAI CoP 合规)

在 EU GPAI Code of Practice 的 Transparency 章节合规要求下,OpenAI 2026-03 提交 Training Data Summary Template, 首次披露:

  • 训练数据总体类别比例(web / code / 书籍 / 图像 / 合成 / 人工)
  • 主要许可方列表(不含合同细节)
  • 数据获取方式(crawl / 购买 / 伙伴 / 合成)
  • 过滤方法概述(不含具体过滤规则)

仍然未披露

  • 具体 token 数(GPT-5 量级据第三方估算,OpenAI 未确认)
  • Common Crawl 使用切片
  • 人工反馈数据的来源(Scale AI、Surge AI、Invisible Technologies 等供应商)
  • 合成数据的模型与规模

学术评估(Ed Newton-Rex / Fairly Trained 2026-04 blog post):

  • “比零强,比 Stability AI Stable Diffusion 3 training data card 弱”
  • “符合 EU 合规文本的字面要求,但不解决创作者的实际维权难题”

OpenAI 2024-01 博客 How OpenAI Is Approaching 2024 Elections

  1. 不允许用 ChatGPT 制作冒充候选人的内容
  2. 不允许用 ChatGPT 作为投票 Chatbot
  3. ChatGPT 在美国选举问询中重定向至 CanIVote.org
  4. DALL-E 加 C2PA 元数据 + 起源追踪水印
  5. 回溯分析发布于 2024-12

批评

  • 2024-12 回溯报告被批评样本选择性强未披露具体错误率
  • Joshua Tucker (CSMaP) 与 Brendan Nyhan (Dartmouth) 独立研究表明:ChatGPT 在 2024 选举期仍会生成具体误导信息, 仅在重定向路径上有部分效果
  • 印度、印尼、巴西等选举的透明度披露显著薄弱于美国
法规相关义务OpenAI 合规现状
EU DSA Art. 15, 24, 42Transparency reports(VLOP)ChatGPT 2024 被指定为 VLOP 后,按半年度发布(首份 2024-10)
EU DSA Art. 40研究者数据访问尚无完整实现(学术研究者申诉被拖延)
EU AI Act Art. 55系统性风险披露通过 Preparedness + GPAI CoP 文件衔接
加州 SB 53 §22757.11Critical safety incident 报告2026-Q1 起承诺合规
Seoul Commitments (2024-05)Transparency about safety decisionsPreparedness + System Cards 作为合规证据
中国《生成式 AI 办法》内容标识、不良信息处置不适用(未在华运营)

八、产业实务:透明度报告内部的运作

Section titled “八、产业实务:透明度报告内部的运作”

从前员工公开访谈、官方博客署名、GovAI / Stanford HAI 学术合作可反推:

  • Intelligence & Investigations Team(前 Disruption Intel):据公开署名与招聘信息反推为数十人级小团队, 负责 Threat Intel Reports
  • Trust & Safety / Integrity:负责 Usage Policy 执法统计与申诉
  • Legal + Privacy:负责政府请求报告
  • Policy Research / Global Affairs:负责选举周期、DSA/AI Act 合规文档
  • Developer Platform Team:负责 Media Manager、C2PA 等创作者工具

外部合作伙伴(公开署名):

  • Microsoft Threat Intelligence Center (MSTIC):影响力操作归因
  • GraphikaSIO(Stanford Internet Observatory 继承者):跨平台影响力研究
  • NCMEC、Thorn:CSAM 检测
  • C2PA Steering Committee:内容溯源
维度OpenAIAnthropicGoogle (AI)Meta (Llama)xAI
Threat Intel季度(2024-Q1 起)无单独系列与 TAG 整合Adversarial Threat Report
Government Requests半年度(2025-09 起)无单独报告按产品半年度
Usage Policy enforcement stats不定期不定期按产品季度
Training data summary2026-03 GPAI 首份模型卡内部分披露按产品Llama model card
选举透明度2024、2025 周期有 2024 博客有周期性报告
综合 Transparency Hub2025-10 上线2025 Transparency Hub长期运营长期运营

结构性观察:OpenAI 的透明度报告在 2024-2026 快速追赶,但起点晚、结构碎片化, 离 Google / Meta 十多年建立的系统化披露机器仍有差距。在 RDR 近年 Corporate Accountability Index 中, AI 原生公司(OpenAI、Anthropic、xAI)综合分数仍显著低于 Google、Meta 等成熟平台。