“白盒”還是“黑盒”,發展是否遭遇瓶頸,新範式在哪裡……學界業界"論劍"|浦江AI學術年會
“從萊特兄弟之後我們就知道怎麼造飛機,只是引擎做大一點,翅膀做寬一點,輪子做好一點,材料做輕一點。但從學術的角度,大模型沒有本質變化,這不是學術該做的事”。
在首屆浦江 AI 學術年會上,香港大學計算與數據科學學院院長、AI 講座教授馬毅用這個生動的比喻,道出了當前人工智能發展的關鍵問題。
在香港中文大學副教授、上海人工智能實驗室領軍科學家成宇的主持下,香港大學計算與數據科學學院院長、AI 講座教授馬毅,北京大學智能學院副院長、教授陳寶權,上海人工智能實驗室主任助理、領軍科學家喬宇,稀宇科技創始人閆俊傑,以及階躍星辰首席科學家張祥雨,這些來自學界和產業界的專家學者和企業家,展開了一場關於 AI 發展方向與挑戰的深度對話。從大模型的侷限性到未來突破的可能性。
“白盒”“黑盒”之爭
在人工智能(AI)的發展研究中,“白盒”和“黑盒”這兩個術語通常用來描述模型的可解釋性或透明度。
在浦江 AI 學術年會上,香港大學的馬毅教授在他的分享中提到人工智能的發展應該追求將模型變成“白盒”,即模型的內部工作機制和決策過程應該是清晰和可解釋的。
馬毅認爲,隨着人工智能的功能越來越強大,它們做的事情越來越多,甚至可能對人類社會產生重大影響,因此不能讓這些模型繼續作爲“黑盒”存在。科學家有責任儘快搞清楚這些模型到底在做什麼,它們的工作原理是什麼,這是科學的問題、數學的問題、計算的問題。
“計算機圖形學的目的是要通過一個結構化的表述,描述這個世界,圖形計算實際上就是一個世界模擬器。”北大教授陳寶權認同香港大學馬毅教授關於“白盒”理念,他認爲,以前我們構建一個世界描述時,是人的智能,我看到了這個世界,人來分解,它的幾何是什麼樣子,它的過程,把牛頓定力引過來,這都是人的智能逼近現實世界。
“但我覺得有了深度學習、大模型以後,逼近的過程,如果我們把所謂的‘白盒’和數據的學習結合起來的話,我們是可以通過基於某種學習的方式來推動的逼近,就代替人的工作。”陳寶權說
不過, 稀宇科技創始人創始人閆俊傑則認爲:“我還是比較相信更加黑盒的做法。‘智能’這個詞也是任人打扮的小姑娘,不同的人對智能的定義非常不一樣。如果把智能當成是說要造出來像人這樣的 Intelligence,那可能是需要白盒。如果把智能定義成幫助人完成一些事,它不需要白盒,黑盒沒有任何的問題。”
對於這場爭論,馬毅教授給出了他的觀察:“現在大家的方法大同小異,結果也半斤八兩。最後看大傢俱體的數據和工程的細節、界面做的好不好,或者 Agent(智能體)的想法是不是比較新穎。”
大模型發展遇到瓶頸?
在討論中,多位專家深入分析了當前大模型發展面臨的挑戰。
階躍星辰首席科學家張祥雨從實踐經驗出髮指出:“過去兩年大家都知道做視覺 foundation model 很痛苦。一度我們出現了很多方法,也有無數的機構投入大量的資源去做,但你會發現這件事情都是不可 scale up(規模化)的。我們看到世界頭部公司在堆砌數據到萬億以上時,也發現這條路線遇到障礙。”
“攀登 ScalingLaw 的時候,我們發現有趣的現象,隨着模型的語言能力不斷的 Scaling,大模型歸納相關的能力、語言能力、創作能力也在快速提升,而且到現在也沒有停下來。但它演繹方面的問題,包括推理、數學很早停止,隨着模型 Slide 進一步提升,它不僅沒有增長,反而在下降。”張祥雨認爲, 對於演繹的問題,用聯合分佈的方式估計一個隨機過程非常困難,因爲到後面會非常發散。很多推理類的問題根本不需要對推理鏈條所有的分佈進行準確的估計,只需要達到目標就可以了。
上海人工智能實驗室主任助理、領軍科學家喬宇從更宏觀的角度這樣分析道:“今天我們已經感受到在目前通往 AGI 的路線上,至少還有很多難題不是現在單純靠擴大模型規模、數據算力能力就能解決的。這裡面有很多的機會,我們需要把最核心、最關鍵的問題凝練出來。”
o1 與 Sora:發展的新範式之爭
2024年,OpenAI 發佈的o1大模型和視頻生成模型 Sora , Anthropic 發佈的大模型 Claude 3 引起了廣泛關注,而 Google DeepMind 的 Gemini 2.0 也在技術上取得了顯著進展。當下,專家們就 AI 領域最受關注的OpenAI o1 和 Sora 展開了深入探討。
階躍星辰張祥雨從技術本質出發分析道:“o1 範式是一個非常重要的突破,它和原來 GPT 的範式並不是相互取代,而是用非常聰明的方法解決大家之前在 Scaling Law 上遇到的種種問題。甚至這套算法可以讓 Scaling Law 再持續一代,但它能不能解決所有通向 AGI 的問題,遠遠不夠。”他特別指出,當前的大模型在推理能力方面遇到了明顯瓶頸,“隨着模型的語言能力不斷 Scaling,創作能力在快速提升,但演繹方面的問題,包括推理、數學很早就停止了增長。”
稀宇科技閆俊傑則從數據和算力的角度提出了不同觀點:“OpenAI o1 本質上只是把 Scaling Law 搬到了後面的 RL 裡面去。因爲算力還在漲,但互聯網的數據增長已經遇到天花板,清洗完可能就 20 萬億的 Token。這種情況下,把關注點轉向強化學習似乎是必然的選擇。”
對於近期引發全球關注的視頻生成模型 Sora,北大教授陳寶權認爲這只是開始:“Sora 現在生成的是二維的視頻,還不是三維的。未來,必然會實現三維生成,加上時間就是四維,再加上交互就是更多維度。未來的視頻生成不僅僅是觀看,而是可以讓用戶走進場景,實現真正的交互。”
香港大學的馬毅教授則從更深層次指出了當前技術發展的侷限性:“從技術角度,Sora 沒有任何對我來說新的東西。無論是數據擬合還是強化學習的微調,這些機制都是生物在用的。現在的差異更多體現在工程實現層面,比如訓練過程中強化學習的比例、數據的選擇等等,這些都已經變成了商業機密,但方法本身並沒有真正的突破。”
2025 年機會和方向在哪裡?
“今天 o1 出來之後,我想在座領導和嘉賓都會被外界問到一個問題,就是這件事情爲什麼沒有出在中國?下面哪個 Token 能出在中國?中國還有沒有機會?”上海人工智能實驗室的喬宇認爲,在通往 AGI 的路線上,我們還缺乏 3 到 4 個重要突破:“大家想一下這個模型強大到現在之後,再朝上面演化,一定是朝一些更高級的智能能力演化。推理確實是我們做數學高階推理的第一部分,事實上人還有其他的高階推理的能力,包括情感、倫理的能力,包括一些抽象思維、理論思維的能力。”
對於 2025 年的 AI 發展,與會專家都表達了自己的期待。香港大學的馬毅教授提出了“兩朵烏雲”的觀點:“一個是下一代智能系統一定是有自主連續增量學習的系統,更加接近於自然界的動物、人的學習,就個體智能。現在我們做了一堆的羣體智能,機器學習,我們已經實現了物種的智能,大模型、百模大戰、羣模亂舞。第二,必須要取代 BP(反向傳播算法,這是一種在神經網絡中用於訓練模型的關鍵算法),因爲自然界做不了這個事,爲什麼現在資源這麼消耗?我們離自然界的能耗還差了 8、9 個數量級。”
北大的陳寶權則關注物理 AI 的發展:“黃仁勳說基於物理真實的 AI,而且還特別說到一定的路徑叫反向物理。這個說到我心坎上去了。我認爲我們對物理世界的規律已經有很好的掌握了,但掌握沒有很好的用到大模型裡面去。我覺得白盒子就是腳手架,我們需要構建一個好的腳手架。”
階躍星辰首席科學家張祥雨則提出了三個具體期待:“第一,在新範式的加持下,希望看到 ScalingLaw 跟智能程度能夠再次成正比。第二,多模態大模型能夠真正做到理解和生成的一體化,能夠在視覺空間完成人類具有的視覺推理。第三,期待明年我們能出一個真正的 AI Native,能解決大家真實需求的產品。”
“模型如何跟外界交互過程中在線主動地引出自己,同時有個內生的獎勵性鼓勵他不斷和外界的交互,我覺得這是通向下一步的關鍵,是我們必須要關鍵突破的技術。”張祥雨說。