突發(fā)!OpenAI超級對齊團隊老大自曝離職原因!牽出管理內幕
共 3175字,需瀏覽 7分鐘
·
2024-05-20 14:11
作者 | 付奶茶
最近幾天,隨著超級對齊團隊核心成員接連離職,以及首席科學家Ilya Sutskever在周二宣布離職,OpenAI的超級對齊團隊目前正面臨解散的危機!
Jan Leike公開離職原因:
-
昨天是我作為OpenAI的對齊負責人、超級對齊負責人及執(zhí)行官任職的最后一天。
-
在過去的三年中,這是一段非常瘋狂而又精彩的經(jīng)歷。我的團隊在這期間推出了InstructGPT,這是我們首個使用RLHF的大型語言模型;我們發(fā)布了首個可擴展的大型語言模型監(jiān)督,并在自動化可解釋性及從弱到強的泛化能力上取得了突破。即將有更多激動人心的成果問世。
我愛我的團隊。我非常感謝和我一起工作的許多了不起的人,包括超級對齊團隊內部和其他的人。OpenAI擁有如此多非常聰明、善良和高效的人才。
離開這份工作是我做過的最艱難的事情之一,因為我們迫切需要弄清楚如何引導和控制比我們聰明得多的AI系統(tǒng)。
我加入是因為我認為OpenAI將是世界上做這項研究最好的地方。然而,很長一段時間以來,我與OpenAI領導層對公司核心優(yōu)先事項的看法一直不合,直到我們終于到了臨界點。
我認為,我們應該把更多的帶寬用于為下一代模型做好準備,包括安全性、監(jiān)控、準備、對抗魯棒性、(超級)一致性、保密性、社會影響和相關主題。
這些問題很難解決,我擔心我們沒有走在到達那里的軌道上。
過去幾個月里,我的團隊一直在逆風航行。有時我們在計算上很吃力,完成這項重要的研究變得越來越困難。
-
開發(fā)比人類更智能的機器本身帶來了巨大的風險。作為OpenAI,我們承擔著對全人類的重大責任。然而,在過去幾年中,閃耀的產(chǎn)品已經(jīng)逐漸取代了對安全文化和流程的重視。我們早應更認真地考慮AGI的潛在影響,并應將預備措施置于首位。只有這樣,我們才能確保AGI能夠惠及全人類。OpenAI必須堅持安全優(yōu)先的原則,成為一家以AGI安全為核心的公司
-
對所有OpenAI的同事們,我想說:去感受AGI的本質。在行為上要表現(xiàn)出對你們所創(chuàng)造之物的尊重與莊嚴。我相信你們有能力引領必要的文化變革。我依靠你們,全世界也同樣依靠你們。
OpenAI的發(fā)展如日中天
OpenAI在讓我們失望?
參考資料
[2]https://mp.weixin.qq.com/s/0f_kxCYMJn_ZIeUUhem2DA
