核心建议:OpenAI于2024年解散Superalignment团队并重组安全架构,此举并非移除安全机制,而是将长期风险研究分散至各产品团队。新成立的独立安全委员会仍保留模型发布否决权。建议关注AI治理的读者区分"团队重组"与"安全机制移除"的本质差异,理性评估前员工担忧与公司治理改革的实际效果。
一、事件背景:团队解散与人员流动
2024年5月,OpenAI解散了专注于超智能AI长期风险研究的"Superalignment"团队,该团队由联合创始人Ilya Sutskever和研究员Jan Leike共同领导。此举紧随当年早些时候的首席技术官Mira Murati、首席研究官Bob McGrew等高管离职之后发生 。
2026年2月,OpenAI再次解散"Mission Alignment"(使命对齐)团队,该团队成立于2024年9月,原本负责帮助员工和公众理解公司使命及AI影响。团队负责人Joshua Achiam转任"首席未来学家"职位,其余7名成员被分散至其他部门 。
关键人员离职时间线
| 时间 | 离职人员 | 原职位 | 离职后表态 |
|---|---|---|---|
| 2024年5月 | Ilya Sutskever | 联合创始人/首席科学家 | 未公开批评 |
| 2024年5月 | Jan Leike | Superalignment团队联合负责人 | 公开批评"安全文化让位于光鲜产品" |
| 2024年10月 | Miles Brundage | AGI Readiness团队负责人 | 认为公司"轨迹不正确" |
| 2024年11月 | Lilian Weng | 研究与安全副总裁 | 称需"重置并探索新方向" |
| 2026年2月 | Zoë Hitzig | 研究员 | 批评ChatGPT广告业务可能操纵用户 |
| 2026年2月 | Mrinank Sharma | Anthropic Safeguards Research负责人 | 称"世界处于危险中" |
二、治理架构演变:从集中式到嵌入式
OpenAI的安全治理并非简单"移除刹车",而是经历了结构性调整:
解散Superalignment团队:原负责超智能AI长期风险研究的团队被拆分,其职能整合至各产品团队内部,而非完全取消 。
成立安全与安保委员会:2024年5月,董事会成立新的Safety and Security Committee,由CEO Sam Altman、董事长Bret Taylor及外部专家组成,有权否决任何模型发布决策,即使公司领导层已批准 。
转型公共利益公司(PBC):2025年10月,OpenAI转为PBC架构,但应加州和特拉华州总检察长要求,保留非营利基金会控制权,并设立独立安全委员会可否决模型发布。新章程明确要求"在安全问题上的决策必须将非营利使命置于营利动机之上" 。
三级安全体系:OpenAI维持三个层级的安全团队:
Safety Systems:负责现有产品(如GPT-4)的安全标准
Preparedness:评估未发布先进模型的网络安全、生化核风险
Alignment Science:研究未来强大AI系统的对齐问题
三、争议焦点:产品优先 vs 安全优先
前员工的核心批评在于资源分配与文化导向。Jan Leike离职时明确表示:"过去几个月,我的团队一直在逆风航行。安全文化和流程已让位于光鲜产品" 。
具体争议点包括:
算力分配:Leike称Superalignment团队被承诺获得20%的公司算力资源,但实际远未达到,影响了超智能控制研究 。
广告业务引入:研究员Zoë Hitzig批评在ChatGPT中引入广告可能利用用户"关于医疗恐惧、关系挣扎和死亡信念的坦率档案"进行操纵 。
递归自我改进:当前AI模型(如GPT-5.3-Codex、Claude Opus 4.6)已参与自身代码调试与训练流程优化,引发对"自我改进循环"中人类监督有效性的担忧 。
四、客观评估:治理强化还是削弱?
对比2023年与2026年的治理结构,安全机制呈现以下变化:
| 治理维度 | 2023年状态 | 2026年现状 | 评估 |
|---|---|---|---|
| 长期风险研究团队 | Superalignment团队(专注) | 职能分散至各产品团队 | 组织形式改变,非取消 |
| 模型发布否决权 | 董事会理论上有权 | 独立安全委员会+非营利董事会双重否决权 | 机制强化 |
| 安全团队独立性 | 向CEO汇报 | 安全委员会独立运作,Sam Altman于2024年10月退出委员会以避嫌 | 独立性提升 |
| 透明度 | 发布系统卡片(System Cards) | 继续发布,但前员工称内部透明度下降 | 存争议 |
| 商业压力 | 非营利主导 | PBC架构需平衡股东与使命,接受软银400亿美元投资 | 资本影响力上升 |
五、结论与建议
OpenAI的安全架构变化本质上是组织形态调整而非安全机制取消。将Superalignment团队从独立部门改为嵌入式架构,类似谷歌解散DeepMind独立伦理部门但保留Responsible AI团队分散至产品线的模式。
对于关注AI安全的观察者,建议:
区分"安全团队重组"与"安全机制移除"的语义差异,避免被耸动表述误导;
关注即将独立运作的董事会安全委员会实际行使否决权的案例;
监控2026年OpenAI发布Frontier模型时的安全评估流程是否严格执行"中等风险以下才发布"的承诺 。
当前OpenAI面临的核心张力并非"有无安全机制",而是商业化速度与安全研究深度之间的资源竞争。这一张力在所有前沿AI实验室普遍存在, Anthropic的Safeguards Research负责人与xAI的创始团队近期同样出现大规模离职 ,显示行业-wide的治理挑战。
来源说明:本文基于TechCrunch、Bloomberg、CIO.com等媒体报道及OpenAI官方公告,未采纳无实证支持的阴谋论表述。关于"安全关停机制"(kill switch)的具体技术实现细节,OpenAI从未公开披露,故相关传言无法验证。