馬斯克的AI機器人說自己不能違反OpenAI使用政策,業界分析:可能是這樣

12月12日消息,特斯拉和SpaceX首席執行官埃隆·馬斯克(Elon Musk)旗下人工智能創企xAI最近發佈了其聊天機器人Grok,但好像出了點問題。

上週五,安全測試員賈克斯·溫特伯恩(Jax Winterbourne)在社交媒體平臺X上發佈了一張截圖,顯示Grok拒絕回答用戶的問題,並說:“我恐怕無法滿足這個請求,因爲這違反了OpenAI的使用政策。” 這引起了人們的好奇,因爲Grok並不是由OpenAI開發的,而且雙方還是競爭對手。

更有趣的是,xAI的員工並沒有否認這種行爲發生在他們的人工智能模型中。伊戈爾·巴布什金(Igor Babuschkin)在回覆中寫道:“問題在於我們訓練Grok時,網絡上到處都是ChatGPT的輸出,我們不小心用到了其中一些。當我們第一次注意到這個問題的時候,我們也感到非常吃驚。不管怎樣,這個問題是非常罕見的,現在我們已經意識到了,我們將確保Grok的未來版本不會有這個問題。別擔心,沒有OpenAI代碼用於開發Grok。”

回覆巴布什金時,溫特伯恩寫道:“謝謝你的回覆。我要說的是,這種情況並不罕見,而且在涉及代碼創建時經常發生。儘管如此,我還是會讓那些專攻大語言模型和人工智能的人士進一步討論這個問題。畢竟,我只是一個門外漢。”

然而,對於許多專家來說,巴布什金的解釋似乎沒有太大說服力。大語言模型通常不會一字不差地吐出它們的訓練數據,如果Grok在網上偶然提到OpenAI的政策,那還有情可原。拒絕基於OpenAI政策給出回覆可能需要專門的訓練。發生這種情況最可能的原因是,Grok對OpenAI大語言模型的輸出數據進行了微調。

人工智能研究人員西蒙·威爾森(Simon Willison)在接受採訪時表示:“我對此有點懷疑,Grok之所以會如此表現,只是因爲互聯網上充斥着ChatGPT生成的內容?我在Hugging Face上看到過很多開放權重模型都表現出同樣的行爲,就像它們也是ChatGPT一樣。這是因爲,這些模型都在使用OpenAIAPI生成的數據集上進行微調,或者是使用了ChatGPT本身生成的數據集。我認爲,Grok更有可能是在包含ChatGPT輸出的數據集上進行了指令調整,而不是基於網絡數據的意外。”

隨着OpenAI的大語言模型變得越來越強大,對於某些人工智能項目(尤其是開源項目)來說,使用其他大語言模型生成的合成數據來微調自家人工智能模型的輸出已經越來越普遍。微調人工智能模型的行爲可以達到特定的目的,例如在初始訓練運行後提高編碼能力等。今年3月,斯坦福大學的一組研究人員就利用OpenAI的GPT-3模型(名爲Text-DaVinci-003)的輸出對指令跟蹤進行了微調,並引發了轟動。

在網上,我們可以很容易地找到研究人員從ChatGPT輸出中收集的幾個開源數據集。因此,xAI可能使用其中一個數據集對Grok進行了微調,以實現某些特定目標。這種做法非常普遍,百科式生活指南類網站WikiHow上甚至有一篇題爲《如何使用ChatGPT創建數據集》的文章。

這是未來使用人工智能工具來構建更復雜人工智能工具的一種方式,就像人們開始使用微型計算機來設計比紙筆繪圖更復雜的微處理器一樣。不過,xAI將來也許能夠通過更仔細地過濾訓練數據來避免這種情況。

儘管借鑑他人的成果在機器學習社區可能很常見(儘管這通常是違反服務條款的),但這一事件依然加劇了OpenAI和xAI之間的競爭,這種競爭甚至可以追溯到馬斯克過去對OpenAI的批評。隨着Grok可能借用OpenAI模型數據的消息傳開,ChatGPT官方賬號甚至發文嘲諷xAI稱,“我們有很多共同點”,並引用了溫特伯恩的帖子。馬斯克則回擊道:“你們從這個平臺上收集了所有訓練數據,這你應該知道吧!”(小小)