OpenAI前董事揭露“解僱門”內幕,矛頭再次指向奧特曼

“私營企業推動革命性新技術的邊界前進時,我們是否可以期待它們在符合股東利益的同時也符合更廣泛世界的利益?”

近日,OpenAI兩名前董事海倫·託納((Helen Toner)、塔莎·麥考利(Tasha McCauley)在《經濟學人》上撰文,指出該公司存在巨大的管理漏洞,並將矛頭直指CEO山姆·奧特曼(Sam Altman)。

兩人分別於2018年、2021年加入該公司董事會。進入OpenAI時,她們對公司自我治理的創新方法可能爲負責任的AI發展提供藍圖持謹慎樂觀態度。

成立之初, OpenAI被認爲是一家非營利機構,旨在確保人工通用智能(AGI)或比人類更聰明的人工智能系統將“惠及全人類”。但爲了籌集必要的資金,OpenAI創建了一個營利性子公司,同時由非營利機構掌權。

她們在文中稱,設計這一前所未有的結構,目的在於維護堅持其原始使命,董事會的任務就是維護這一使命,“不幸的是,它沒有成功。”

而在ChatGPT橫空出世以後,OpenAI在商業化的道路上狂奔。直到“解僱門”事發,公司內部的巨大矛盾才被外界窺見。

二人在文章中針對奧特曼被解僱一事給出了正面迴應,這也是該公司內部人士首次在媒體上針對這一事件進行迴應。

她們提及,之所以OpenAI董事會解僱了奧特曼,是爲了挽救公司的自我監管結構。長期以來,奧特曼的行爲模式導致董事會維護公司使命的能力越來越受限,包括削弱董事會對關鍵決策和內部安全協議的監督。

該公司多位高管私下向董事會表達憂慮,認爲奧特曼培養了一種“充滿謊言的有毒文化”,並參與了“可以定性爲心理虐待的行爲”。

針對去年震驚全球的“解僱門”,二人直言她們並不後悔通過解僱奧特曼來重塑OpenAI,但仍然擔心OpenAI在推動技術進步方面的作用。

“自奧特曼重返掌舵以來的發展,尤其是高級安全人才的離職,預示着OpenAI自治實驗的不祥之兆。”她們說道。

奧特曼重返OpenAI後,該公司曾對外表示,董事會“在其廣泛自由裁量權內”解僱了奧特曼,但也得出結論認爲他的行爲“沒有要求解僱”。

二人質疑,OpenAI幾乎沒有提供具體的理由來證明上述結論,也沒有將調查報告公開給員工、媒體或公衆。

一直以來,AI安全問題備受關注。兩位前OpenAI董事認爲,根據經驗,自我治理無法可靠地抵禦利潤激勵的壓力。“AI具有巨大的正面和負面影響潛力,僅僅假設這樣的激勵措施總是與公共利益相一致是不夠的。爲了AI的崛起能夠惠及每個人,政府必須現在開始構建有效的監管框架。”

她們指出,OpenAI提供了教訓,即社會絕不能讓AI的推出完全由私營科技公司控制。缺乏外部監督的自我監管最終將變得無法執行,尤其是在巨大利潤激勵的壓力下。因此,政府必須發揮積極作用。

近幾個月來,從華盛頓議員到硅谷投資者,越來越多的人主張對AI進行最少的政府監管,並將AI與上世紀90年代互聯網帶來的經濟增長相提並論。“然而,這種類比是誤導性的。”二人觀察到,在AI公司內部以及研究人員和工程師社區中,AI帶來的巨大風險正在被廣泛承認。

奧特曼也稱,“成功過渡到一個擁有超級智能的世界可能是人類歷史上最重要的、充滿希望的、可怕的工程。”許多頂尖AI科學家對他們自己正在構建的技術表達了憂慮,這與早期互聯網的程序員和網絡工程師的樂觀態度大不相同。

託納和麥考利強調,由於缺乏有效監管,AI帶來了以下三大問題:一是成功的科技公司及其投資者從在線商業的缺乏監管中獲得了巨大的利益。二是社會在監管社交媒體上的錯誤信息和不實信息、兒童剝削和人口販賣以及日益嚴重的青少年心理健康危機方面是否達到了正確的平衡。此外,明智的監管可以確保AI的利益得到負責任和更廣泛地實現。政府應當制定政策,且加強設計管理,讓更多人瞭解AI前沿的進展情況,如透明度要求和事件跟蹤。

二人認爲,設計不當的監管可能會給小公司帶來不成比例的負擔,扼殺競爭和創新。在制定新規時,政策制定者必須獨立於領先的AI公司。監管框架需要靈活調整,以跟上AI能力對世界不斷增長的理解。

“我們相信AI有潛力以前所未有的方式提高人類的生產力和福祉,但通往更好未來的道路並非沒有危險。”她們表示。

在二人看來,OpenAI成立是一個大膽的實驗,旨在優先考慮公共利益,而非爲了利潤開發越來越強大的AI。“但我們的經驗是,即使擁有所有優勢,OpenAI採用的自我治理機制也不足以滿足需求。公共部門緊密參與技術發展是至關重要的。”她們說。

此前屢次對OpenAI進行抨擊的馬斯克也稱,“訓練AI沒有最大程度追求真相,這對人類很危險。”

這次發文之所以引發外界側目,還在於前段時間OpenAI被曝要求離職員工簽署帶有“不貶損承諾”的離職協議,否則就要放棄公司期權。

儘管奧特曼表示對此並不知情,但在隨後曝光的協議中,他的簽名赫然在列。很快,又有消息稱該公司取消了“不貶損承諾”的離職協議。

導致OpenAI深陷輿論漩渦的還有其核心人物伊爾亞·蘇茨克維(Ilya Sutskever)的離職,以及核心安全團隊“超級對齊”也在近日被曝解散。他們在離職後紛紛通過社交媒體批評OpenAI的治理方式。

或是作爲迴應,OpenAI成立了一個董事會委員會,用來評估其人工智能模型的安全性。這一舉措距離該公司解散內部安全團隊以及安全問題負責人離職僅數週時間。

新成立的委員會將在90天內評估OpenAI技術的保障措施,並提交報告。“董事會完成全面審查後,OpenAI將以符合安全原則的方式公開分享所採納的建議。”該公司週二在其博客中寫道。OpenAI還表示,他們最近已經開始訓練其最新的AI模型。

面對高管離職、員工保密協議爭議以及盜用好萊塢女演員聲音等一連串負面事件,奧特曼能否以“受損”的個人信譽帶領OpenAI持續向前,將是短期內AI行業的重要議題之一。