奥特曼否认离职条款,无人相信。(奥特曼肯定)

1ChatGPT 可以进行语言交流,但 OpenAI 员工不能

Ilya Sutskever 和 Jan Leike 上周二宣布他们将离开 OpenAI。这两位是 OpenAI 公司超级对齐团队的负责人,他们的主要职责是确保人工智能技术与开发者的目标保持一致,以避免对人类造成无法预测的损害。

选择离开的不只有他们。自去年 11 月以来,也就是 OpenAI 董事会试图以“宫斗”方式解雇 Sam Altman 之时,公司里至少 5 名关注人工智能(AI)安全的员工已经或主动、或被动地离开 OpenAI。

这到底在闹哪样?如果大家一直在社交媒体上关注此事,可能会以为是 OpenAI 悄然取得了巨大技术突破。表情包”Ilya 看见了什么?”认为这位前首席科学家之所以仓惶离场,是因为他看到了令人恐惧的东西——比如可能毁灭人类的 AI 系统。

但真正的答案可能与对技术的恐惧无关,而仍然出在人的身上——也就是OpenAI的首席执行官Altman。熟悉该公司内情的消息人士称,关注人工智能安全的稳健派已经完全对Altman失去了信任。

一位不愿透露姓名的内部知情人士表示,“信任的瓦解是一个逐渐发展的过程,就像多米诺骨牌逐个倒下一样。”

很少有员工愿意公开讨论这个问题。这一方面是因为 OpenAI 向来会与离职员工签订非常严格的离职协议,而拒绝签署则意味着放弃补偿权益,有可能损失数百万美元。

OpenAI的离职协议非常严格,禁止员工在未来的任何时候批评他们的前雇主,即使承认了保密协议的存在也被视为违反了协议。

如果离职员工拒绝签署该协议或者泄露协议内容,他们可能会失去在职期间获得的所有已归属的期权。对于像OpenAI这样的初创公司员工来说,期权收益是一种重要的补偿形式,甚至可能高于他们的薪资。因此,将这份收益作为威胁,是一种非常有效的方式来让离职员工保持沉默。

有点讽刺的是,OpenAI 刚宣布了令人兴奋的新产品ChatGPT 4o,让 ChatGPT 可以像人类一样进行对话。是的,ChatGPT 可以进行对话,但 OpenAI 员工必须保持沉默。“封口令”的存在,让 OpenAI 获得了几乎一边倒的批评意见。

奥特曼被吓坏了:两篇小作文接连否认“封口”离职条款,但没人相信他了_图1

奥特曼被吓坏了:两篇小作文接连否认“封口”离职条款,但没人相信他了_图2

风向变了。OpenAI 正处于广大人民唾弃的边缘。

2OpenAI坚决否认三连(指点赞、评论、转发),但他们的辩解并未得到广泛认可。

鉴于当前社会舆论激烈的形势,OpenAI 发表了一份声明,强调「我们从未剥夺任何现任或前雇员的应得利益,也不会因对方拒绝签署离职或禁止负面评论的协议而剥夺其利益。」而在询问这是否反映出政策内容有所变更时,OpenAI 的回应是「声明反映了事实」。

昨天下午,Altman 本人在一条推文中承认,OpenAI 公司的离职协议中确有一条关于离职员工「潜在股权撤销」的规定,但表示该公司已经在调整具体内容。

奥特曼被吓坏了:两篇小作文接连否认“封口”离职条款,但没人相信他了_图3

关于近期出现的有关 OpenAI 如何处理权益一事的讨论:

我们从未因对方拒绝签署离职协议(或禁止负面评论协议)而剥夺任何人的应得权益,未来也不会采取这样的行动。应得权益是每个人应该得到的,不需要进行讨论。

关于我们原有文件中提出的潜在股权撤销规定,尽管我们从未实际实施,但也承认这条内容本就不该存在。这是我的问题,也是我在执掌 OpenAI 以来最尴尬的情况;我确实不知道有这么一条,抱歉。

过去这一个月来,相关团队已经在调整标准离职条款。如果有任何前员工担心旧协议引发问题,都可以与我联系并共同解决这个问题。再次抱歉。

但还有一位前雇员,他坚决拒绝签署离职协议,目的是为了保持对该公司的自由批评权。Daniel Kokotajlo 于 2022 年加入 OpenAI,加入治理团队后一直希望推动公司采纳安全部署理念,但最终于上个月选择辞职。他表示这也意味着他放弃了高达 85% 的家庭净资产。

奥特曼被吓坏了:两篇小作文接连否认“封口”离职条款,但没人相信他了_图4

Kokotajlo 在上周接受采访时表示,“OpenAI 正在训练越来越多的 AI 系统,目标就是最终超越人类智能。这可能是人类有史以来最激动人心的目标,但如果我们不能谨慎行动,那也可能陷入无法挽回的困境。”

OpenAI 曾明确表示希望建立通用人工智能(AGI),这是一种理想系统,能够在各个领域实现与人类相当甚至超越人类的智能表现。

Kokotajlo 坦言,“我曾充满希望,认为 OpenAI 就是技术发展的灯塔,会以负责任的态度逐步迈向人工通用智能(AGI)。但现在很多人都意识到根本就不可能,我逐渐对 OpenAI 领导层及其处理 AGI 的负责态度失去信任,并最终选择辞职。”

Leike 上周五也在 X 上发帖解释了自己辞去超级对齐团队联合负责人职务的原因,情况与 Kokotajlo 基本相似。他写道,“我一直对公司的核心优先事项设置保留意见,而形势最终发展到了临界点。

现在,Altman 社交媒体下面,都是大片质疑的声音:“为什么安全要退居次要位置?”“为什么禁止前员工批评 OpenAI?”“理性的人不会信任你。”

Greg Brockman 也不得不出面发表了一条署名为“Sam and Greg”的长推文,表示他们没有放弃安全,并且在“努力减轻风险”。网友们照样不买账,认为这都是废话,一看就是 Altman 的手笔。

Greg Brockman 也不得不亲自发表了一篇名为“Sam and Greg”的长篇推文,表达了他们对安全问题的重视,并且承诺会努力降低风险。然而,网友们对此并不认同,认为这只是空话,明显是Altman的策划。

奥特曼被吓坏了:两篇小作文接连否认“封口”离职条款,但没人相信他了_图5

外媒对此评论说,这是Altman已经被大家的反应“吓坏了”。

奥特曼被吓坏了:两篇小作文接连否认“封口”离职条款,但没人相信他了_图6

为什么OpenAI安全团队不信任Sam Altman?

在回答这个问题,我们需要将时间倒回去年 11 月。当时,身为 OpenAI 董事会成员的 Ilya 也参与过对 Altman 的“逼宫”。董事会指出,Altman“在沟通中未能一直保持坦诚。”换句话说:董事会对他的诚信产生了怀疑。

但这场行动最终失败,Altman 和他最忠诚的盟友、公司总裁 Greg Brockman 威胁要将 OpenAI 的顶尖人才一股脑带去微软。也就是说除非立刻让 Altman 恢复原职,否则 OpenAI 就会当场爆炸。面对这种威胁,董事会只得屈服,劫后余生的 Altman 比以往任何时候都更加强大,并立即组织起更支持他、愿意让他放手做事的新董事会。

入宫行刺未能成功,事态将无法得到改善。

虽然 Ilya 和 Altman 曾多次对外展示二人的深厚友情,但在上周 Ilya 突然宣布离职,并表示将投身于“对我个人而言非常重要的项目。”几分钟后,Altman 也在 X 上发帖,称“这让我非常伤心。Ilya 是……我的亲密好友。”

奥特曼被吓坏了:两篇小作文接连否认“封口”离职条款,但没人相信他了_图7

Sam Altman 和 Ilya Sutskever 于2023 年 6 月 5 日在一所大学里共同发表了一场关于人工智能的演讲

但实际情况是,自从政变失败以来,这半年间 Ilya 就没有出现在 OpenAI 的办公室。他一直以远程方式领导超级对齐团队,以确保未来的人工智能(AGI)能够与人类的利益保持一致。虽然这个想法很好,但是它与公司的日常运营相分离,OpenAI 的主要精力完全放在由 Altman 领导下的商业化产品开发方面。在 Altman 复职后不久,Ilya 还曾发布并迅速删除过这样一条推文:

奥特曼被吓坏了:两篇小作文接连否认“封口”离职条款,但没人相信他了_图8

这个月我学到了很多。与其费心运用各种手段,倒不如“在严厉的约束下培养出孝顺的子女”。

因此尽管对外总在刻意展示Ilya和Altman之间的亲密关系,但在经历了政变之后,他们之间的友谊是否还存在真的要打个大大的问号。

而 Altman 对“逼宫”一事的反应,也揭示出他性格中的某些侧面:除非董事会让他官复原职,否则他就拼个鱼死网破,而且坚持对董事会成员进行大洗牌以巩固自身地位,表现出牢牢把握权力的坚定决心,甚至直接消除了未来再次面临质疑的可能性。已经有多位前同事和雇员证明 Altman 就是个控制狂,当面一套、背后一套——比如他曾多次在人前强调安全,但实际工作时却根本不在乎。

举例来说,Altman 会从沙特阿拉伯筹款,希望借此建立新的人工智能(AI)芯片公司,为自己的AI技术的前沿探索储备充足的算力资源。此事让关注安全的员工们感到震惊。如果Altman真的在以安全方式构建和部署AI,为什么要以近乎疯狂的方式获取芯片,不惜一切代价加快技术开发?他又为什么要与沙特合作,坐视对方利用AI增强数字监控或侵犯人权等潜在风险?

内部知情人士透露,对于员工们而言,所有这一系列事件导致了他们失去了对OpenAI的信任,因此即使OpenAI再怎么强调自己对某件事的重视,人们也不再相信。

而这个逐渐发展的过程,在上周开始全面爆发。

超级对齐团队联合负责人 Jan Leike 表示了明确的立场。他在离开 OpenAI 几个小时后,在 X 上发帖宣布“我已经辞职了。”没有任何温情的告别,也没有对公司管理层的任何虚假赞美。

其他重视安全的多位前雇员则给 Leike 的离职帖点赞,同时加上了爱心的表情符号。Leopold Aschenbrenner 作为其中一位,就是上个月被 OpenAI 开除的超级对齐团队成员。媒体报道指出,他和同团队的另一位研究人员 Pavel Izmailov 因泄漏信息而被解雇。但 OpenAI 方面并未提供关于泄漏的证据。鉴于每位员工在加入 OpenAI 时都需要签署严格的保密协议,所以对于一位身经百战的硅谷老兵来说,Altman 完全可以将最无害的信息分享也定义成“泄漏”,借此把 Ilya 一系的员工全都清理出 OpenAI 之外。

就在 Aschenbrenner 和 Izmailov 被解雇的同一个月,另一位安全研究员 Cullen O’Keefe 也离开了公司。

两周之前,公司一位安全研究员 William Saunders 在 EA 论坛上发表一篇神秘的帖子。EA 论坛是有效利他主义运动成员们的线上聚会场所,一直在积极参与 AI 安全事业。Saunders 总结了自己作为超级对齐团队成员在 OpenAI 所做的工作,写道“我于 2024 年 2 月 15 日从 OpenAI 辞职。”一位评论者则提出了核心问题:Saunders 为什么要专门发帖讨论这事?

Saunders 回应称,“我没有什么可说的。”用户们由此猜测,他很可能是受到了禁止负面评论协议的限制。

将上述消息跟公司内部人士的话语结合起来,我们至少发现有七位前雇员都曾努力在内部推动 OpenAI 的安全意识,但却最终对公司主导者彻底失去信心,并最终选择退出。

根据公司内部人士的说法,我们可以得知,有七位前雇员曾经积极地在公司内部努力推动 OpenAI 的安全意识。然而,由于对公司主导者的完全失去信心,这些前雇员最终选择了离开公司。

据知情人士透露,“我认为公司里很多非常关注安全和社会影响的同事,内心都存在一个未解决的疑问:为OpenAI这样的公司工作,是否是正确的选择?为了让员工们放心,OpenAI必须认真思考自己的行为,并承担起相应的责任。”

4随着安全团队的解散,OpenAI 的工作安全该由谁来负责保障?

由于 Leika 不再负责超级对齐团队的管理,OpenAI 决定任命公司联合创始人 John Schulman 来接替他的职位。

但该团队已经被人员流失,Schulamn 也仍忙于处理他之前的主要工作,确保 OpenAI 现有产品的安全。在这样的背景下,谁能指望 OpenAI 会认真开展具有前瞻性的安全工作?

恐怕没有希望。

据知情人士透露,“超级对齐团队最初成立的目标是为了应对公司在成功开发通用人工智能后可能出现的各种安全问题。该团队实际上是一项面向未来的专项投资。”

但即使该团队全力以赴工作,这笔“专项投入”也只能调动 OpenAI 内的一小部分研究人员,且只承诺为其提供20%的计算能力资源。现如今,这批计算能力可能会被移交给其他 OpenAI 团队,也不清楚是否将继续研究如何避免未来可能出现的人工智能灾难性风险。

需要明确一点,这绝不是说 OpenAI 当前发布的产品(例如能够与用户开展顺畅对话的最新大模型GPT-4o)就会对人类造成毁灭性的影响。但随着这项技术的快速发展,未来的情况无法预测。

据知情人士透露,“最关键的是要弄清楚他们当前是否在开发和使用存在安全隐患的人工智能系统,以及是否能够期待他们能够安全地开发和部署超级智能或者超级智能系统。对于前一点,我不了解情况,但对于后一点,我认为是不可指望的。”

Leike 在上周五的 X 帖子中也表达了同样的担忧。他指出,他的团队一直在努力争取足够的算力来完成工作,但总体上可谓是“逆水行舟”。

Leike 在上周五的 X 帖子中也表达了同样的担忧。他指出,他的团队一直在努力争取足够的计算能力来完成工作,但总体上可谓是“逆水行舟”。

奥特曼被吓坏了:两篇小作文接连否认“封口”离职条款,但没人相信他了_图9

我选择加入OpenAI是因为我认为这是进行这项研究的最佳场所。

然而很长一段时间以来,我与OpenAI的领导层在公司核心优先事项方面一直存在着分歧,这种分歧最终达到了临界点。

我认为我们应该将更多的资源花在为下一代模型做好准备上,具体包括安全、监控、准备、安全对抗稳健性、超级对齐、保密性以及社会影响等相关主题。

这些问题非常具有挑战性,我甚至担心 OpenAI 还没有找到正确的解决方案。

在过去的几个月里,我的团队一直在面临巨大的挑战。有时候我们在计算能力方面遇到了一些困难,这使得我们在这项重要的研究中进展缓慢。

其中最重要的一条,就是 Leike 提到“

我认为我们应该将更多的资源花在为下一代模型做好准备上,具体包括安全、监控、准备、安全对抗稳健性、超级对齐、保密性以及社会影响等相关主题。

这些问题非常具有挑战性,我甚至担心 OpenAI 还没有找到正确的解决方案。

当人工智能安全领域最重要的从业者之一表示世界领先的人工智能厂商还没有找到正确的发展方向时,恐怕我们都有理由感到担忧。

0
分享到:
没有账号? 忘记密码?