❗️ 伊尔亚为什么离开 OpenAI。 公开信息只有礼貌的祝福,真正离开openai的原因只能从时间线和各路报道里“拼图”。1. 他是谁,干了啥 • 伊尔亚·苏茨克维(Ilya Sutskever),1986 年生,苏联戈尔基出生,后移民以色列、加拿大,是 Geoffrey Hinton 的弟子。 • 早期在多伦多大学读博,是 AlexNet 的核心作者之一,这个模型基本把现代深度学习时代“打响了第一枪”。 • 2013 年加入 Google Brain,做过 seq2seq、TensorFlow 等一堆后来改变行业的工作。 • 2015 年末离开谷歌,与 Sam Altman 等人一起创立 OpenAI,担任首席科学家(Chief Scientist),是 GPT 系列和 ChatGPT 的核心灵魂人物之一。 简单说:技术上是真正顶级的“AI 大神”,不是包装出来的人设。2. 他在 OpenAI 内部的“剧情线”关键节点有几个(非常重要): 1. 长期负责模型方向与安全: • 他不仅管模型能力,也非常关心“对齐 / 安全”(alignment、superalignment)。 2. 2023 年 11 月“董事会政变”: • 他当时是控制 OpenAI 的非营利董事会成员之一。 • 董事会突然开除 CEO Sam Altman,理由是对董事会“不够坦诚”等。 • 多家媒体报道中提到:伊尔亚主导或至少是关键推动者之一,甚至写过一份 50 多页的内部备忘录,详细列举对 Altman 的不信任。 • 几天后,在员工大规模倒戈、微软施压、舆论反噬之下,Altman 回锅做回 CEO。伊尔亚公开表示“后悔参与这次解雇”。 • 随后他退出董事会,并在很长一段时间里几乎“消失在一线视野之外”。 3. Superalignment 团队“塌了”: • 他曾公开宣布要在 4 年内解决“超级智能对齐问题”,联合 Jan Leike 负责 Superalignment 项目。 • 2024 年春,这条安全线的核心人物先后离职,媒体报道说:安全团队觉得公司在算力和资源承诺上“说一套、做一套”,对高层信任崩塌。 这条时间线的意思很简单: 他跟公司管理层的信任关系,在 2023 年那次政变之后,很难再修得回来。3. “官方说法”:非常体面,也非常空 2024 年 5 月 14 日,OpenAI 官方博客发了一篇文章,宣布: • Ilya 将离开 OpenAI,Jakub Pachocki 接任首席科学家。 • Sam Altman 在文中对他极高评价,大意是“这一代最伟大的头脑之一、指路明灯、亲密朋友”,但没有说明任何具体“为什么离开”。 也就是说,公司层面的公开口径:只有感谢与祝福,没有理由。这在硅谷是典型的“高端体面分手话术”。4. 媒体和业内的主流解读:为什么他会走 基于多家媒体(Time 等)的报道和知情人士爆料,大致可以归纳出几条“非官方理由”(注意:是高度可信的分析,不是官方结论):(1)在“发展速度 vs 安全担忧”上的根本分歧 • Time 报道:他与 Altman 在“AI 应该多快往前冲”这个问题上长期存在严重分歧。 • 他明显更偏向“谨慎 + 安全”,而 OpenAI 在商业化压力和竞赛环境下,把重心放在: • 快速推出产品、扩大模型规模、抢占市场。 • 简单翻译: 他觉得车速过快需要踩刹车;公司整体倾向是继续加油门。(2)对治理结构和承诺“失信”的失望 • 有报道指出:OpenAI 曾向安全团队承诺,将把 20% 的算力用于最危险方向的安ig 全研究;后来这项承诺被严重打折,引发“安全团队失去信任”的内部风暴。 • Superalignment 团队核心成员集中离职,本身就是一个强烈信号: • 他们不再相信,自己能在原来的结构里“把事情干对”。(3)政变失败后,实际权力和话语权被大幅稀释 • 2023 年 11 月解雇 Altman 的决定,最后被公司和资本市场“全面反噬”,结果是: • Altman 回归并更加强势; • Ilya 退出董事会,后续在公司内部的角色高度模糊,甚至有报道说他“几乎不再接触核心项目”。 • 从权力结构看,他已经不再是那个“能真正拍板安全方向和节奏”的人。 用一句残酷一点的话概括: 他在 OpenAI 既不真正掌控方向,又要为安全问题背锅,这个位置已经变成高价值“精神吉祥物”,而不是实权决策者。 在这种情况下,离开其实是结构性必然。5. 他离开之后做了什么:Safe Superintelligence Inc. 离开 OpenAI 后不久,他和 Daniel Gross、Daniel Levy 创立了 Safe Superintelligence Inc.(SSI),总部在帕洛阿尔托和特拉维夫。 几个关键点: 1. 使命非常单一、极端聚焦 • 公告写得很直接: 我们只有一个目标、一个产品:安全的超级智能(safe superintelligence)。 • 不搞一堆周边应用,不做聊天产品,不追求短期营收,只有一条直线:“在安全前提下做出超智能”。 2. 资本追捧得离谱 • 2024 年 9 月:3 个月大就估值 50 亿美金。 • 2025 年初:融资传闻估值 200 亿。 • 2025 年春有报道称估值到 300 亿以上,员工几十人。 3. 他现在是 SSI 的 CEO • 2025 年 7 月,原 CEO Daniel Gross 被 Meta 挖走后,Ilya 亲自接任领头人。 他想要一个不被商业路线掰弯、不用跟大公司董事会博弈的“纯粹安全 + 超智能实验室”,于是干脆自己另起炉灶。6. 把上面所有信息压缩成一句“人话结论” 综合官方声明 + 媒体报道 + 时间线,你可以这样理解: 伊尔亚离开 OpenAI,是多重因素叠加的结果: • 安全观念和发展节奏上,与公司商业化方向长期冲突; • 经历 2023 年“政变—反政变”后,他在治理结构中的实际影响力被严重削弱; • 安全团队对公司兑现承诺的信任坍塌; • 他自己更想做一个只对“安全超智能”负责、不对季度 KPI 负责的实验室。 所以这不是简单的“跳槽”,而是:当他发现“在旧结构里没法按自己相信的方式做事”,就选择带着声望和理念,去另起一套新结构。
