張鈸院士:對大模型的研究很迫切,不能解釋不清楚就說“涌現”

新京報貝殼財經訊(記者孫文軒)9月6日,在百川智能Baichuan2開源大模型發佈會上,中國科學院院士、清華大學人工智能研究院名譽院長張鈸表示,關於大模型本身的學術研究非常迫切與重要,到現在爲止國內的大模型主要集中在垂直領域的應用上,因此他很支持百川智能把這次的開源模型定位在助力學術研究上。

張鈸指出,到現在爲止,全世界對大模型的理論工作原理、所產生的現象都是一頭霧水,所有的結論都推導產生了“涌現現象”。“所謂‘涌現’就是給自己一個退路,解釋不清楚的情況下就說它是‘涌現’。實際上這反映了我們對它一點不清楚。這個問題必須搞清楚,我們纔有可能發展出有中國特色的大模型。”張鈸表示,對此,有三個方面的問題研究比較重要。

首先是“大模型爲什麼能夠產生出來非常連貫的、多樣化的人類語言?”在他看來,這主要靠三方面的措施,第一是文本的語義表示,也就是把文本里的詞、句、段落全變成向量,這給構造一個連續的拓撲空間創造了條件。第二個是轉換器,注意力機制可以保證上下文的一致性。最後一個是下一個詞的預測。

第二個問題是,大模型爲什麼會產生幻覺?他指出,這個問題涉及到ChatGPT跟人類自然語言生成原理的不一樣,最根本的區別在於,ChatGPT生成的語言是外部驅動的,而人類的語言是在自己意圖的情況下驅動的,所以ChatGPT內容的正確性和合理性不能保證。

張鈸進一步指出,只有經過ALignment(對齊)才能解決這個問題。之所以能從GPT3.5到GPT4,幾個月的時間有那麼多的變化,主要就是“對齊”的功勞。而在“對齊”方面,國內做的工作太少。不過他同時也指出,做“對齊”是做治理,但是治理以後內容的質量、多樣性會下降,所以還需要平衡開放和治理的關係。

張鈸把ChatGPT生成的語言稱作GPT語言。他表示,第三個需要研究的問題是,將來努力的方向是什麼,是不是想把GPT語言完全對齊到人類的自然語言?他認爲這個可能性不大。“因爲想實現這個目標,你必須讓GPT有自我意識。”

他同時表示,這樣也沒有必要,因爲人工智能追求機器的智能,希望這個智能跟人類的智能不一樣,它某些方面比人類有優勢,某些方面比人類有缺點,只有這樣人類才能和機器和平共處。“目前最重要的是,我們要研究、瞭解GPT語言,只有徹底瞭解了它,才能更好地發展它,使用它,或者說從產業的角度來講纔可以發展出更健康的人工智能產業。”

校對 柳寶慶