民主黨人爲何就 OpenAI 安全紀錄向奧特曼施壓
參議員伊麗莎白·沃倫(馬薩諸塞州民主黨)和衆議員洛裡·特拉漢(馬薩諸塞州民主黨)要求 OpenAI 就如何處理舉報人以及安全審查的問題給出答案,此前有前員工 抱怨內部批評經常被壓制。
“鑑於您的公開評論與 OpenAI 行動的報告之間存在差異,我們請求獲取 OpenAI 關於舉報人和利益衝突保護的信息,以判斷聯邦干預是否有必要,”沃倫和特拉漢在一封 專門與《The Verge》分享的信中寫道。
議員們列舉了幾個 OpenAI 的安全程序備受質疑的例子。例如,他們說,在 2022 年,GPT-4 的一個未發佈版本在獲得 OpenAI 安全委員會批准之前,正在印度新版的微軟必應搜索引擎中接受測試。他們還回憶起奧特曼在 2023 年短暫地被逐出公司,部分原因是董事會擔心“在瞭解後果之前就將進展商業化”。
就在沃倫和特拉漢給奧特曼寫信的時候,該公司 被一長串的安全問題所困擾,這些問題常常與該公司的公開聲明不一致。例如,一位匿名消息人士 告訴 《華盛頓郵報》,OpenAI 倉促完成安全測試,超級對齊團隊(部分負責安全工作)解散了,一名安全主管辭職並聲稱“安全文化和流程已退居其次,讓位於光鮮的產品。” OpenAI 的發言人林賽·赫爾德否認了《華盛頓郵報》報道中的說法,並表示該公司“在我們的安全流程上沒有走捷徑,儘管我們承認此次發佈給我們的團隊帶來了壓力。”
其他立法者也在尋求有關該公司安全實踐的答案,包括由布萊恩·沙茨(D-HI)領導的一羣參議員於 7 月。沃倫和特拉漢要求進一步弄清楚OpenAI 對該團體的迴應,包括其爲員工創建新的“誠信熱線”用於報告問題。
與此同時,OpenAI 似乎在採取攻勢。7 月,該公司宣佈與洛斯阿拉莫斯國家實驗室建立合作伙伴關係,以探索先進的人工智能模型如何能安全地爲生物科學研究提供助力。就在上週,奧特曼通過 X 宣佈 OpenAI 正在與美國人工智能安全研究所合作,並強調公司 20%的計算資源將用於安全(這是最初對現已不存在的超級對齊團隊所做出的承諾。)在同一篇帖子中,奧特曼還表示,OpenAI 已經取消了針對員工的非貶低條款和允許取消既得股權的規定,這是沃倫信件中的一個關鍵問題。
這封信表明了立法者的一項關鍵政策關注點,他們此前提出了旨在擴大舉報人保護的法案,如《聯邦貿易委員會舉報人法案》和《證券交易委員會舉報人改革法案》。它也可能向執法機構發出信號,據報道,截至目前,執法機構已將目光聚焦於OpenAI 可能的反壟斷違規行爲和有害的數據操作。
沃倫和特拉漢要求奧特曼提供有關其新的面向員工的人工智能安全熱線的使用方式,以及公司如何跟進報告的信息。他們還要求對 OpenAI 產品“繞過安全協議”的所有次數進行“詳細統計”,以及在何種情況下允許產品跳過安全審查。立法者還在尋求有關 OpenAI 衝突政策的信息。他們詢問奧特曼是否被要求剝離任何外部資產持有,以及“有哪些具體的保護措施來保護 OpenAI 免受您的財務利益衝突?”他們要求奧特曼在 8 月 22 日之前做出迴應。
沃倫還提到,奧爾特曼一直毫不掩飾地表達他對人工智能的擔憂。去年,在參議院面前,奧爾特曼 警告稱,人工智能的能力可能會 “對公共安全和國家安全造成嚴重破壞”,並強調無法預測該技術的每一種潛在濫用情況或故障情形。這些警告似乎引發了立法者的共鳴——在 OpenAI 所在的加利福尼亞州,參議員斯科特·維納正在推動一項法案來監管大型語言模型,包括如果其人工智能被用於有害方式,將追究公司法律責任的限制。