2023/11/30 15:30 微信公众号:知危
几小时前,OpenAI 官网发布新的文章公告宣布:
奥特曼( Sam Altman)将正式重返 OpenAI 担任 CEO,Mira 将回归 OpenAI 担任 CTO,新的董事会将由 Bret Taylor( 可能是支持奥特曼的激进派 )、Larry Summers ( 可能是激进派 )和 Adam D'Angelo ( D'Angelo 是*留任的老董事,他曾支持让奥特曼下台,是保守派 )组成,至于之前发起 “ 政变 ” 把奥特曼推下台的 Ilya( 保守派 ),奥特曼表示 Ilya 将不再担任董事会成员,并且公司正在讨论他将如何留在 OpenAI 继续工作。
根据此前奥特曼发布的推文,本次回归,他除了获得了新董事会的支持,还得益于 satya ,也就是微软 CEO 的支持。
随着这则公告的发布,OpenAI 宫斗大戏似乎尘埃落定,而这场宫斗的结束,或许意味着 OpenAI 的使命将被改写,它有可能像一只蝴蝶煽动了一下翅膀,最终影响整个人类。
为什么这么说呢?
此前,OpenAI 正走上一个十字路口,宫斗本质意义上是 OpenAI 的两种截然不同的发展方向:加速主义与安全主义的路线之争。
事情发生的前一天,奥特曼还在亚太经合组织峰会上侃侃而谈公司最近取得的一项技术进步。
“ 在 OpenAI 的历史上,现在已经有四次了,最近一次是在过去的几周里。当我们把无知的面纱推回去,把发现的前沿向前推进时,这是一生的职业荣誉。”
奥特曼所说的这项技术,大概是指 Q*( 发音为 “ Q-Star ” )模型。
根据 The Information 的报道,OpenAI 两位*研究人员 Jakub Pachocki 和 Szymon Sidor 开发出了名为 Q* 的模型。
它能用前所未有的能力来解决数学问题,是 AGI( 通用人工智能 )的重要技术里程碑。
而这个突破是基于 Ilya 启动于 2021 年的一项重要工作:GPT-Zero。该项目研究如何使用计算机生成的数据,而不是互联网上提取的文本或图像来训练新模型。
简单来说,就是 AI 在自己生成的数据上提升能力,打开自我进化的路线。
Ilya 的技术突破此前从未被报道过,在取得突破后的几个月里,Ilya 都对这项技术持保留态度。
直到奥特曼被罢免的四天前,公司几名研究员向董事会发出了一封信,警告称这项新发现可能威胁人类。这封信就成了 OpenA 此次 “ 宫斗 ” 大戏的导火索。
Ilya 高调参与了对奥特曼的罢免,甚至外界还认为他是串联董事会另外三人的人物。
在消息刚宣布的时候,以 Ilya 为代表的 OpenAI 董事会受到了全球舆论的口诛笔伐,刚回过神的微软和第二大股东 Thrive Capital 也对 OpenAI 董事会施加压力。
那时候,就只有马斯克在暗暗支持政变,他发帖称:
Ilya 有着良好的道德准则,并且不热衷权力。除非他觉得*有必要,否则他是不会采取这种极端行动的。
奥特曼正式回归后,关于道德与追求更快的未来,似乎 OpenAI 选择了后者。
01 OpenAI的使命
在宣布罢免奥特曼的全体会议上,有员工问道,“ 这是一场政变吗?”
“ 你可以这么说,我能理解你为什么选择这个词。”Ilya 回应道,随后又解释了一句,“ 但我不同意这个词,因为罢免对于维持 OpenAI 的使命是必要的。”
所以,OpenAI 的使命是什么?
时间回到 2012 年,彼时马斯克认识了戴密斯·哈萨比斯,哈萨比斯创办了一家名为 “ DeepMind ” 的公司,试图打造一种能像人类一样学习、思考的机器。
两人一见如故,马斯克约哈萨比斯去往他的火箭工厂参观。在那里,马斯克跟哈萨比斯解释,他之所以要打造可以飞往火星的火箭,是因为在发生世界大战、小行星撞击或人类文明崩溃时,这是一种可能保存人类意识的方式。
哈萨比斯则补充了另一种人类可能面临的危险 —— 人工智能。
他认为机器如果进化成了超级智能,在未知逻辑下可能做出把人类消灭的决定。
马斯克听完沉思了将近一分钟,他认为哈萨比斯对人工智能风险的认识可能是对的,于是他向哈萨比斯创立的 DeepMind 投资了 500 万美元,这样他就能实时了解人工智能领域的进展。
随后几周里,马斯克向谷歌创始人拉里佩奇介绍了他对人工智能潜在风险的看法,但佩奇对此不屑一顾。
2013 年,马斯克的生日派对上,两人还对这个事展开了一场激烈的辩论。
马斯克认为,“ 除非我们建立防火墙,否则人工智能可能会取代人类,让我们这个物种走向灭绝。”
佩奇反驳说,“ 如果有一天机器的智力,甚至机器的意识,都超过了人类,那又有什么关系呢?这只不过是进化的下一阶段罢了。”
佩奇指责马斯克是 “ 物种主义者 ”,只偏袒自己这个物种的生存。“ 嗯,没错,我是支持人类优先的。”马斯克回应道,“ 我就是热爱人类啊。”
那年年底,谷歌计划收购 DeepMind ,马斯克尝试过筹钱给 DeepMind 融资,以此来阻止这笔交易。他还对哈萨比斯说:“ 人工智能的未来不应该让拉里说了算。”
但马斯克还是失败了,于是他转头就找到了奥特曼。
在帕洛阿尔托的一场小型晚宴上,奥特曼和马斯克决定创办一个非营利性的人工智能研究实验室,他们将其命名为 “ OpenAI ”。
实验室的软件是开源的,将努力对抗谷歌在人工智能领域日渐强大的主导地位。
马斯克说,“ 我们的目标是提升人工智能安全发展的概率,人类将从中受益。”
当时马斯克和奥特曼还详细讨论了一个目标,叫做 “ 人工智能对齐 ”—— 这个词也是这次 “ 宫斗 ” 的关键 —— 它的目的是让人工智能系统与人类的目标和价值观保持一致,就像艾萨克·阿西莫夫的机器人三定律一样。
在确定好这个目标之后,他们找到了 Ilya,打算用 190 万美元的工资和保底奖金把他从谷歌挖过来,让他担任 OpenAI 的首席科学家。
这个薪资和他在谷歌时差不多,而为了留住 Ilya,谷歌先给 Ilya 的薪资翻了一番,Ilya 没有答应。随后,谷歌选择加更多的钱。
眼看着 Ilya 就要被老东家留住了,OpenAI 急了,但拼财力,肯定是比不过谷歌的,于是他们选择换一种策略:讲理想。
他们告诉 Ilya,OpenAI 是一家非盈利导向的 AI 实验室,他们的目标是 “ 让人类以更接近于安全的方式构建真正的 AI ”。
Ilya 认可了这一理念,放弃谷歌的天价薪资选择加入 OpenAI 。
对于马斯克挖走自己*科学家的事,佩奇一直耿耿于怀,一度在公开场合拒绝跟他对话。马斯克还调侃对方,“ 当时你但凡对人工智能的安全问题上点儿心,我们都没必要搭个台子跟你唱对台戏。”
Ilya 加入 OpenAI 后确立了 OpenAI 的使命:“ 确保 AI 造福全人类 ”。
那年 OpenAI 还发表了一篇名为 “ 介绍 OpenAI ” 的博文,里面这样写道:
“ 我们希望将 OpenAI 发展成为这样一个机构。作为一个非营利组织,我们的目标是为每个人类而不是股东创造价值。我们将大力鼓励研究人员发表他们的工作,无论是论文、博客文章还是代码,我们的专利( 如果有 )将与全世界共享。我们将与许多机构的其他人自由合作,并期望与公司合作研究和部署新技术。”
这篇文章的作者是:Greg Brockman、Ilya Sutskever 以及 OpenAI,奥特曼的名字并不在其中。
可能分歧在这时就已经埋下了伏笔。
02 裂缝丛生
关于 OpenAI,奥特曼设计了一个特殊盈利架构,在这里就不赘述了。
简单来说就是成立了一个子公司来承接 OpenAI 的商业行为与股权分配。
在奥特曼宣布这个架构实施前不久,马斯克就与奥特曼决裂,离开了 OpenAI 董事会。
也正是这个架构,让 OpenAI 从一个开放式非盈利的机构逐渐转向封闭式可盈利的组织。
2020 年,OpenAI 发生过一次高层之间对于 AI 路线的争议。当年年底,OpenAI 的前研究副总裁 Dario Amodei 带着 10 名心腹离开 OpenAI,创办了如今 OpenAI *的竞争对手 Anthropic 。
而 Dario 出走的最根本原因就是人工智能安全问题。
生成式 AI 是一个黑匣子,人们并不知道其中是如何运作的,只知道堆参数堆算力的 “ 大力出奇迹 ” 的方式,而 Dario 担心,“ 知其然不知其所以然 ” 的人工智能发展过快会带来未知的风险。
今年十月份,OpenAI 原董事会成员 Helen Toner 发表过一篇论文,里面赞扬了 Anthropic 采取的安全做法。
论文里写道:“ Anthropic 推迟了 Claude 的发布时间,直到另一家公司推出了功能类似的产品,这表明 Anthropic 不愿在产品上偷工减料走捷径,而 ChatGPT 的发布催生了很多疯狂行为。”
因为这篇论文,奥特曼谴责了 Helen Toner,说她损害了 OpenAI 的利益,还考虑过是否将她撤职。
事实上,对 OpenAI 做法怨念很深的,还有 OpenAI 创始人马斯克。
2023 年 2 月,马斯克在社交媒体上喊话奥特曼去见他,还要求奥特曼带着 OpenAI 的创始文件。
马斯克质问他,凭什么能够合法地把一个由捐款资助的非营利组织转变成一个可以赚取数百万美元的营利组织。
奥特曼则一口咬定,这是合法行为,他不是股东也没有套现,甚至还可以向马斯克提供新公司的股份,不过,马斯克没要。
马斯克说:“ OpenAI 是作为一家开源的( 这也是我将其命名为 ‘ Open ’ AI 的原因 )、非营利性的公司创建的,其目的就是与谷歌抗衡,现在它却成了一家封闭源代码、追求利润*化的公司,实际上处于微软的控制之下。我到现在都不明白,我捐赠了 1 亿美元创办的非营利性组织是怎么变成市值 300 亿美元的营利性公司的。如果这是合法的,为什么大家不都这么做呢?”
很明显,围绕 OpenAI 的发展方向已经产生了两种截然不同的发展方向:加速主义与安全主义的路线之争。
前者充满资本主义精神,认为人类应该无条件地加速技术创新,并快速推出它们,来颠覆社会结构。这种颠覆本质上对人类有利,因为会迫使人类适应,从而帮助我们更快达到更高的意识水平。代表人物自然是这次宫斗被短暂推翻的奥特曼。
后者对通用人工智能充满警惕,认为 AI 应该要对齐人类价值观,尤其是“ 无条件对人类的爱 ”,就像父母对待孩子,只有拥有了这个 AI 才真的不会毁灭人类,而在这之前都应该用谨慎的态度来发展 AI。代表人物是这次宫斗的发起者 Ilya 和早已退出 OpenAI 的马斯克。
而两者之间能不能调和呢?
Ilya 认为不能,他认为技术的本质类似于人类的生物进化,进化的起点很重要。如果进化的开始,是一个没有 “ 无条件对人类的爱 ” 的 AI,那最终也一定会把人类带到沟里去。
正是这种不可调和的矛盾,导致 OpenAI 爆发了这场全球瞩目的政变。
03 AI时代的奥本海默
去年12 月,在旧金山加州科学馆举办的 OpenAI 节日派对上,Ilya 向数百名员工和嘉宾发表了讲话。
“ 我们的目标是制造一个热爱人类的 AGI。” Ilya 停顿了一下,随后说,“ 感受 AGI,跟我念 —— 感受 AGI。”
这位当初从谷歌 Deep Mind 跳槽到 OpenAI 的天才科学家并不想把自己当成奥特曼的 “ 沃兹尼亚克 ”( 与乔布斯共同创立苹果 ),而更像是 AI 时代的 “ 奥本海默 ”。
奥特曼显然是加速主义派的代表,他主导了 GPT 商业化的进度并且想要加快运用其研究成果。但 Ilya 却越来越担心 OpenAI 是否坚持了管理非营利组织创造有益的 AGI 的使命。
他在几个月前牵头成立一个 “ 超级对齐 ” 的项目,计划在未来四年将把公司五分之一的计算资源投入到这个项目,帮助引导超级人工智能走向人类价值观和目标,开发更多人工智能安全技术,为十年内实现 AGI 的可能性做好准备。
奥特曼显然不愿意等这么久。
本月初,OpenAI 举行了*次 “ 开发者大会 ”,在会上奥特曼推出了 GPTs, ChatGPT 的自定义版本,增加了 GPT Store 并允许通过收益分成来丰富开发生态。
于是,无数开发者像潮水一样涌来,复制苹果 AppStore 的路径已经跃然纸上。
之后奥特曼和 Greg Brockman 开始全力融资,11 月 9 日与法国总统马克龙会面,随后在巴黎举行了投资者会议。13 日在伦敦接受《 金融时报 》的采访时,奥特曼首次确认他们已经开始开发 GPT-5,并正在为此筹集资金。16 日在 APEC 峰会上,奥特曼确认了技术突破,称几周前他们再度打开了 “ 无知之幕 ”。
据传闻,17 日董事会会议上,Ilya 带着两名资深工程师向董事会报告了项目的进展和潜在风险。并表示公司不应该再融资,不应该扩张,以及奥特曼不应该擅自进行巡演时。
在大吵一番后,Ilya 最终决定推动董事会罢免奥特曼。
但事后,Ilya 也并没有那么坚决。
在董事会决定将奥特曼解职,把 Greg Brockman 从董事会除名后,Greg Brockman 的妻子在公司大厅哭着恳求 Ilya 重新考虑这件事。
她就是在这个这地方和布罗克曼举行了婚礼,婚礼是 Ilya 主持的。
之后,Ilya 有些后悔,发帖说:“ 我对参与董事会的行动深表遗憾。我从未想过要伤害 OpenAI。我热爱我们共同建立的一切,我会尽我所能让公司重新团结起来。”
随后在 OpenAI 员工联名辞职信里,Ilya Sutskever 的名字赫然出现其中。
随着关键人物的缴械,这场政变在那一刻已经基本宣告了结束。
04 走向何方?
OpenAI 之后会走向何方呢?
可能重回 CEO 位置的奥特曼依然还会过着顺风顺水的生活吧,在世界各地穿梭,与多国总统和总理们会面,确定着全球 AI 政策议程,并且把 OpenAI 的估值继续推向新高。
而退出董事会的 Ilya 应该也会继续着他的 “ 超级对齐 ” 项目,去探索如何 “ 制造一个真正爱人类的 AG I”。
无论怎样,生成式 AI 这个精灵是不可能再被关回瓶子里的。
这次闹剧只是在告诉全人类,某种可自我进化的 AGI 已经被创造出来了,并且正在以一种恐怖的速度更新迭代。
至于,如何平衡安全与发展之间,谁知道呢?
人工智能的浪潮有多汹涌,其背后的安全问题就有多深邃。
在电影《 奥本海默 》中,有这样一个场面,地平线上,一道巨大的白光闪过,渐渐地,白光变成了耀眼的黄橙色的火球,夹杂着火焰和黑色尘埃,不断向上翻滚。奥本海默心中闪现出了印度经典作品《 薄伽梵歌 》中一句话:“ 现在我成了死神,世界的毁灭者。”
不知道 Ilya 在决定罢免奥特曼的那一刻,脑海里又想起的是什么呢?
引用:
1.有效利他主义是什么?它如何引发了硅谷分裂和OpenAI闹剧?——华尔街日报
2.OpenAI“宫斗”的幕后究竟发生了什么?——华尔街日报
3.OpenAI researchers warned board of AI breakthrough ahead of CEO ouster, sources say——reuters
4.OpenAI Made an AI Breakthrough Before Altman Firing, Stoking Excitement and Concern——The Information
5.《 马斯克传 》
榜单收录、高管收录、融资收录、活动收录可发送邮件至news#citmt.cn(把#换成@)。