OpenAI解散風險管控團隊

知情人士表示,OpenAI已解散該團隊,部分成員將被分配到公司其他單位。

OpenAI共同創辦人蘇茲克佛(Ilya Sutskever)與機器學習研究員雷克(Jan Leike)14日相繼宣佈離開OpenAI。兩人負責領導Superalignment團隊。

OpenAI去年7月宣佈成立Superalignment,該團隊將專注於「科學與技術突破,以引導與控制比人類更聰明的AI系統」。OpenAI當時承諾,未來四年內將投入20%運算能力至該計劃。

但消息人士透露,該團隊的資源請求經常遭到OpenAI拒絕,導致該團隊難以做事。

儘管Superalignment成功發表一系列安全研究成果,但隨着新產品發佈佔用公司愈來愈多心力,該團隊認爲自己必須爭取到更多資源。

雷克17日在X社交平臺上表示:「我加入OpenAI,是因爲我認爲這間公司是進行這類研究的最佳地點。但我與OpenAI高層對於公司優先要務的想法分歧已有一段時日,目前已到達臨界點。」

雷克認爲,公司應將更多資源分配給AI安全、監控、準備與社會衝擊。OpenAI必須成爲一家「安全第一的AGI(通用AI)公司」。

他表示:「建造比人類更聰明的機器是一項危險工作,但過去幾年以來,安全文化與流程的重要性遠不如新穎產品。」

蘇茲克佛更是OpenAI去年宮斗的主角之一。他與OpenAI舊董事會成員當時解除執行長奧特曼職務。這場人事鬥爭的根本原因是,蘇茲克佛與奧特曼對於AI發展抱持不同看法,前者認爲應確保AI不會傷害人類,後者則致力於推動新技術。