對話|應對卡脖子,開源是中國大模型安全的最優解?

文/觀察者網 張廣凱

2025開年伊始,國內大模型行業似乎正醞釀着一場劇烈的格局變動。

一邊是零一萬物與阿里雲達成合作,不再獨立追求超大模型的預訓練;另一邊,以豆包爲代表的大廠模型仍在快速進化,“不差錢”的DeepSeek更是以創新架構,讓人看到超越OpenAI的可能性。

這似乎印證了一段時間以來的流言:國內大模型企業將進一步收斂,一些過去的頭部玩家也開始掉隊?

另一個有趣的現象是,此前一直走閉源路線的MiniMax,最近突然發佈了自己的開源模型。開源是弱勢方爭奪市場的捷徑,還是本身就具備比閉源更好的商業邏輯閉環?

當然,美國對中國愈加嚴厲的政策限制,一直都是不容忽視的巨大風險。國產大模型行業準備好迎接進一步脫鉤了嗎?

圍繞上述話題,我們邀請AI生態專家、曾任零一萬物開源及開發者生態負責人的林旅強,以及Hugging Face工程師王鐵震進行對話,收穫了不少新穎的觀點。

摘要如下:

·中國大模型行業的研發能力與OpenAI沒有明顯差距,即使放棄預訓練的團隊,也並非因爲訓練效果不佳,只是更好的商業選擇。

·隨着主流模型能力基本夠用,一味追求模型能力最強或許是個誤區。以操作系統爲例,性價比纔是大規模應用的決定性因素。

·當算力成本進一步降低,開源模型的性價比將更加突出。

·開源的優勢還在於更容易成爲行業標準。

·開源的AI開發工具鏈,對大模型的國產化替代意義巨大。

以下爲對話全文:

放棄預訓練,不是能力不夠

觀察者網:可以聊聊最近零一萬物預訓練團隊併入阿里的事嗎?這是不是意味着,國內頭部大模型公司之間的能力已經在分化,零一發現自己預訓練的效果不夠好?

林旅強:完全不是這樣的。零一的團隊很強,預訓練出來的東西也很強,去年5月發佈的Yi-Large,10月發佈的Yi-Lightning都很好,尤其是Yi-Lightning,可以說是當時時間點上最強的之一。

但是模型強不強,跟商業上能不能走通是兩回事。零一絕對不是沒能力做預訓練,而是作爲一個小公司,必須面對現實——你投入巨大的資源去做預訓練,能不能做到self sustainable?是不是對投資人負責?

所以一個公司最終還是要去找到符合商業規律的生存之道。

王鐵震:對,我非常同意。我要補充一下,其實中國的research非常強,這兩年中國的大模型追得非常快,包括最近的DeepSeek,甚至讓OpenAI都感到一些危機。

如果說中國跟美國的頭部模型存在一些差距,我覺得不能說是人的問題,主要還是因爲資金的分配、公司的政策方向等等。像零一這樣的中國公司,有最優秀的團隊,有開復老師的領導,那麼如果給它像OpenAI一樣的資金,它絕對也能做出同樣好的產品。但是這樣的條件在中國是很稀缺的。

大部分中國公司,不可能把無止境的資金投入到一個非常燒錢的項目裡。在“六小虎”中,所有人一開始都是to b也要做,to c也要做,to developer也要做,foundamental research也要做,但是很快大家就會發現,我不可能每一件事情都做得好,每一件事情的競爭都是非常激烈的,我需要把所有的精力放到某一個自己很擅長的事情上面,才能做出最好的效果。

可能零一也經歷了這樣一波週期,發現必須把全部精力集中在做APP,或者專注做to b。我覺得這完全沒有問題,因爲很少有公司能夠像DeepSeek或者阿里巴巴一樣,有另外賺錢的業務去養活不賺錢的foundamental research。

所以我覺得國內做預訓練的公司會越來越少,其實是一個好事,是更好的資源調配。想做預訓練的人也可以更集中,資金也可以更集中,可能最後只有四五家模型,但每家都可以得到非常多的資金支持,可以走得更遠更好。

中國很多行業都走過了類似的路,比如說電動汽車、光伏,都經歷了自然淘汰的過程,從無序競爭到有序收斂,這是一個市場比較理想的狀態。

觀察者網:也就是說國內的大廠也好,“六小虎”也好,在大模型能力上還沒有顯著差距。

王鐵震:我認爲還在牌桌上的玩家,水平都沒有太大的差距,有差距的自己已經放棄了,所以牌桌上的玩家確實在減少。

林旅強:很多行業應用,也未必非要去做預訓練。例如百川很早就宣佈把重點放在醫療,那麼醫療大模型是不是一定需要做預訓練?基於別人的基座大模型,拿行業數據去做後訓練是不是足夠了?

所以退出牌桌的人,也不一定是失敗,而是調整。所有公司都要找到適合自己的路。

觀察者網:那麼當初爲什麼大家一擁而上都去做預訓練?是戰略選擇錯誤,還是擔心使用別人的模型,不是好的商業模式?

林旅強:首先,你要向資本市場講一個故事。2023年上半年,資本市場會覺得一個團隊能做預訓練,代表團隊的能力是很紮實的。

另一個原因是當時的基座模型還不夠強,後續去做fine-tune的效果也不好,所以只能自己去做基座。

現在,很多大模型效果已經好到一定的程度,甚至10B以下的小模型都比當時強很多了,對很多場景來說完全夠用了。所以大家不會再盲目追求超大模型。

王鐵震:對,剛開始的時候,你必須向資本市場證明自己的團隊實力。只做fine-tune的團隊,估值不會很高,後續做很多事情就會非常受限。而且最開始的那段時間,市場上資金是最充裕的,越往後融資越難,如果開始拿不到足夠資金,後面可能很快就死了。

還有很重要的一點,是對人才的爭奪。那個時候大模型人才是相當稀缺的,很多公司都需要開出非常高的薪水挖人。

做預訓練更有利於去培養自己的團隊。如果只是做微調,你只能看到世界的一小部分,只有懂預訓練的人才能告訴你,一個問題到底應該用預訓練解決,還是後訓練解決。

但在今天這個時間點,基於很多開源模型去做後訓練,已經能達到比較好的效果,預訓練可能就更多是一種情懷了。

最好的大模型,未必要最強

觀察者網:那麼在今天這個時間點上,開源模型跟閉源模型的能力還有差距嗎?

林旅強:我想先correct一下這個問題本身。模型就是模型,不會因爲它是開源或者閉源就更強或更弱,模型強弱跟是否開源是完全兩個維度的事情。

觀察者網:但是最早Llama之所以選擇做開源,可能是因爲它不夠強,要通過開源來搶市場。

林旅強:開源確實有利於搶佔市場,但是它想搶市場,跟它夠不夠強,不能建立直接關係。現在DeepSeek也是開源,難道是因爲它不夠強?所以我個人覺得Llama只是開源中一種情況,並不代表開源的本質。

開源和閉源的參與者也是動態變化的,比如之前一直閉源的MiniMax,最近突然也做開源了,這並不只是取決於模型強弱。

王鐵震:這是一個經常被問到的問題,最近我剛好也有一些新的想法。

首先就像前面提到的,沒有開源強的閉源模型已經死掉了,所以結果就變成,閉源模型永遠是大於等於開源模型。

之前我也覺得,開源模型跟最頭部的閉源模型相比,還是有非常大的差距。但是最近DeepSeek發佈的成果,以及國內在推理模型上面的進展,都讓我覺得差距沒有那麼大了,反而是OpenAI更應該感到焦慮。

視頻生成模型也是一個很好的觀察角度。Sora是一個閉源模型,它剛出來的時候大家都驚歎,中國跟它的差距非常大。但是現在大家驚歎的反而是,Sora怎麼一直都像個期貨,好像還不如中國的開源模型給力。

所以開源模型是可以很強的。但這個問題仍然很有價值,我會想問,如果開源模型廠商真的做出了比OpenAI更好的模型,它們還會不會繼續開源?整個開源生態本身已經在收斂,如果再有更多廠商放棄開源預訓練,對行業將是巨大損失,因爲沒有市場競爭的話,很難保證大家都還願意在這個牌桌上玩。

觀察者網:所以仍然可以說,閉源模型大於等於開源模型?究竟有沒有哪家開源模型,能夠達到跟OpenAI差不多的能力?

林旅強:其實對於開發者跟行業來說,很多開源模型的能力是足夠的。那麼在同等能力情況下,如果有開源的選擇,我一定選開源,因爲性價比就是開源強。

所以你怎麼去評判強不強?論性價比開源超強。你的問題其實暗含了一個假設,認爲模型能力一定要達到最強,這件事情是很重要的。如果從科研角度或者公司估值的角度,追求最強確實是有意義的,但是從我們開發者角度,性價比高才能普及。

我舉個例子,PC端操作系統,最強的肯定是Windows或者macOS,但是Linux對於全球行業的影響力或許更大。你看得到的機器上跑的都是Windows或者macOS,你看不到的機器上跑的基本都是Linux,後者的數量可能更多。

Linux甚至根本不需要一家公司去推動,它成立一個基金會,IBM、谷歌都會捐錢。每家捐幾百萬美元,就能換來持續可用的操作系統,而且不會被人卡脖子。

所以究竟是Linux最強,還是macOS比較強,現在已經沒有人care這一點了。

觀察者網:有支持閉源的人,說開源模型是“智商稅”,認爲即使從成本來看,閉源也比開源要低。

林旅強:我尊重他們的選擇,但我不認同這個結論,開源相比閉源成本一定是低的。因爲購買一個閉源模型本身就是很大的支出,在此之外,開源不會比閉源增加任何成本。

王鐵震:一些現在做閉源的公司,其實在過去的時代也在做開源,對NLP、OCR等領域都有很大幫助。後來在大模型領域轉向閉源,雖然很可惜,但是一定是經過了深思熟慮,甚至可能也有激烈的內部討論。那麼一旦選定了技術路線,對外也只能這樣說。

開源的好時代還在後面

觀察者網:大模型的開源方式,跟Linux這樣的傳統開源方式也有很大區別。

林旅強:完全不一樣,現在的開源大模型並沒有把關鍵素材開放出來。

Open Source的基本邏輯,第一是透明,第二是可復現。但大部分開源模型的tech report都不夠透明,比如用了什麼樣的數據集,這是各家的秘方,是不可能拿出來的。

傳統的開源軟件,所有代碼都會公開在GitHub上,你能夠完全去復現這套軟件,並且做出進一步貢獻。比如你發現一個bug,可以去提交修復。但所謂的開源大模型,仍然是一個黑盒子,我無法去修改這個黑盒子,無法改善它,只能夠基於它去做後訓練。所以它更像是開源和閉源之間的一箇中間態。

真正開源的大模型,其實Hugging Face上也是有的,比如BigScience項目,可以給出完全開源的數據集和訓練代碼,但是大部分開源模型做不到這一點,我認爲把它們叫做開放模型更合適。

觀察者網:真正意義上Open Source的開源模型團隊有哪些,主要在國外嗎?

王鐵震:這是一個很有意思的現象,國內做開源的主要是大公司,或者能拿到國家資助的學術機構,而在海外有很多自發的組織,他們可能只是依靠一些捐贈,或者就是幾個學生做着玩,然後得到一些企業幫助。

據我瞭解,國內真正滿足開源標準的團隊,主要有兩個。一個是RWKV(元始智能),他們最早用Stable Diffusion的幾百張卡一直在默默做預訓練,現在也逐漸開始尋求商業轉化。另一個是MAP,他們是一個虛擬的在線組織,成員主要是國內大廠的研發人員,會進行一些跨機構的合作,發佈過真開源的模型MAP-NEO,以及春運數據集等等。

海外的開源大模型團隊大家可能更熟悉,除了Hugging Face的項目,還有艾倫AI研究院(Allen Institute for AI),後者得到了蓋茨基金會的支持。

觀察者網:真開源項目少,是不是大模型的訓練成本過高造成的?因爲即使開放出來也很少有人能去復現。大模型領域不太可能產生類似開源軟件的生態?

林旅強:對,我們回過頭看Linux生態是怎麼長出來的,一個重要原因是個人電腦很便宜。

最早發起自由軟件運動的人,理查德·斯托曼,當時在MIT的人工智能實驗室任職。他認爲軟件應該是自由開源的,可是當時的電腦太貴,他在實驗室裡想要做軟件編譯,都得排隊去申請使用電腦,就像今天的大模型研究者排隊求分配顯卡,這種資源稀缺的情況是無法做開源的。

到Linux出來的時候,PC已經便宜到讓野生開發者都能夠在自己家裡面寫代碼,這是摩爾定律帶來的算力民主化。

所以我認爲當下的 AI大模型,還處在當年的實驗室階段。等到算力成本繼續降低,AIPC能夠讓每一個人在自己家裡就能跑得起大模型,或者訓練一些小模型,開源的百花齊放就會來臨。

觀察者網:摩爾定律在GPU領域還能繼續有效嗎?

王鐵震:討論摩爾定律,一方面我們可以期待下一個世代的硬件進步,甚至量子計算有怎樣的前景。另一方面,軟件或許也有一些辦法能夠讓摩爾定律延續,比如MiniMax、RWKV嘗試的Linear Attention(線性注意力機制),就是降低算力成本的另一條途徑。

其實芯片領域的摩爾定律之所以一直能延續,不是因爲最早的技術能一直延續,而是行業在不停地變換技術棧,尋找摩爾定律的新的解釋方式。我覺得AI行業肯定也能做到這一點,比如用更小的模型就能獲得現在很大模型的效果,或者用超越傳統Transformer的架構來取得對算力需求的數量級下降。甚至未來是不是可能專門爲大模型設計一種ASIC,效率遠遠超越通用GPU。

所以我們不用太悲觀,至少現在英偉達的GPU還在快速進步,未來也有很多替代路線可以探索。

開源是一場標準之爭

觀察者網:即使解決了成本問題,做開源模型的回報在哪裡?一些大廠,比如阿里雲、字節,可以用其他業務變現。但是像“六小虎”這樣的企業,爲什麼要開源?

林旅強:每一個企業做開源,一定是符合商業理性的,一定要能促成他的商業邏輯閉環。我不認爲開源只是靠情懷。

扎克伯格當初寫了一篇文章,解釋爲什麼要把Llama開源。文章標題是Open Source AI Is the Path Forward,開源是未來之道。

扎克伯格表達了兩個觀點:一是開源能夠避免重複造輪子,把自己的一些成功拿出來給大家用,能夠降低整個行業的研發成本;二是開源也有助於形成行業標準。

我想大企業做開源,真正的動機肯定不只是第一點,幫別人省錢。而是這個錢省了之後,他就會落入到我的生態系統,他的根就在我這邊,我在這個生態系統裡擁有絕對影響力。那麼以後這個行業的基礎設施和技術路線,都是要跟我掛鉤的。

從商業的角度來講,標準等於壟斷,制定標準的人賺最多錢。

我曾經在華爲從事開源項目,華爲爲什麼做那麼多開源?第一他不想被卡脖子,第二他也希望能定出標準。華爲的開源項目是放在產業與標準部門裡的。過去在通信領域,像3G、4G、5G,或者藍牙這樣的通信協議,是有行業聯盟來制定標準的。但是到了軟件領域,華爲發現沒辦法做聯盟,開源形成的事實上的標準,把聯盟壟斷的路子都給斷了,搞標準只能從開源切入。

觀察者網:零一爲什麼要做開源?

林旅強:對一些企業來說,做開源也有秀肌肉的作用。通過一個很厲害的產品,讓市場認識一家公司,這是後進者能夠讓自己傳播的一種方式。

還有很多企業,會同時做開源免費版和商業收費版兩種產品。通過開源的方式,能更快得到客戶,然後只要開源免費版的基礎夠大,我也可以通過一些產品設計,滿足更多的商業訴求,變成付費版本。

在國內主流的大模型公司裡,零一已經算是入局比較晚的,所以必須開源。但我加入零一,首先是因爲他們的模型足夠強,因爲開源生態非常依賴於產品強不強。

零一選擇了開源閉源並進的策略,認爲最強的模型必須是閉源的,同時也去建設開源生態。但這未必是大模型開源的唯一解,有時也會讓客戶感到矛盾。通義千問全部做開源,其實也是很好的思路。

觀察者網:對客戶來說,開源的安全性會是個問題嗎?

林旅強:包括央國企在內的大模型招標,通常不會在標書上要求是開源還是閉源。開源完全能夠滿足安全性的要求。因爲安全性主要不取決於開源閉源,它們都是黑盒子,沒有區別。安全性主要靠大量的測試,比如做各種滲透測試,或者紅軍藍軍對抗。

王鐵震:其實從安全的角度上來講,開源模型反而能允許你做更多的測試,而且這些攻擊行爲不會被泄露到第三方。從這個角度上來講,開源模型實際上更安全。

林旅強:沒錯,很多白帽黑客可以自己去拿開源模型做攻擊測試,把結果在行業中交流,讓大家知道如何防範。但是你不能去攻擊一個閉源模型,這是違法的。

開源圈內有句話,只要眼球足夠多,所有bug都現形,對大模型也是適用的。

應對卡脖子,開源工具鏈也很重要

觀察者網:還有另一個維度的安全性,人們會擔心一家商業公司控制的大模型未必符合公共利益,提出了“對齊”的概念。開源模型有助於“對齊”嗎?

林旅強:所有模型都會承載一些價值觀,會對用戶產生特定的影響,這是一定會發生的事情。開源模型會成爲整個價值觀光譜中很好的補充,但未必一定要靠開源。在一個好的市場中,社會價值觀本身就是相互衝突和平衡的,市場的力量自然也會讓大模型取得平衡。

政治因素也會產生影響,李開復老師也說過一個概念,叫做一國一模型,每個國家的法律不同,道德觀念不同,大模型也是要經過一些調整的。

王鐵震:開源能給大家更多的選擇,每個國家、每一個人都可以根據自己的需求去做定製模型,那麼實際上是一種技術普惠。

其實大家選擇模型的時候會有很多不同考慮。前段時間國外網友有個帖子,說通義千問很好,但是我不能用。因爲國外公司也會有一些policy,不允許使用中國模型。

觀察者網:地緣政治正在成爲更大的威脅。如果美國加強對中國的GPU和大模型制裁,開源對國產化有什麼幫助?

林旅強:我不是地緣政治專家,但我覺得“卡脖子”是必然要發生的事,因爲美國無論哪個黨執政,對中國的政策都沒有太大區別了。既然他要搞,我們就要因應,國產化芯片能夠接得住的地方,就要全面導向國產化,接不住的地方也要尋找迂迴的方式。

當然美國也是一個很多力量在拉扯的的國家,像英偉達這樣的大企業也有動機去阻止禁令,也會對結果產生影響。

王鐵震:如果說大模型層面,其實得益於開源工具鏈的發展,現在模型之間的切換是比較容易的。如果你要換用一個新模型,只要把prompt調整一下,把模型ID換一下就好了。除非一些架構比較獨特的模型,比如DeepSeek,因爲它工具鏈上的兼容不完備,大家想要把它高性能地跑起來還是有一些困難。

在AI基礎框架上,百度做過一些很好的工作,比如開源的PaddlePaddle(飛槳)是國內最好的AI框架之一。只可惜百度在大模型時代沒有繼續走開源路線,否則在大模型的加持下,PaddlePaddle生態會有更加巨大的發展。

林旅強:我認爲PaddlePaddle就是中國第一的AI框架,但華爲的開源框架MindSpore(昇思)現在有很好的機會,因爲華爲只要決定做,哪怕慢一點,也會堅持下去。

AI從硬件到軟件,大致可以分爲4層,華爲都有佈局。芯片層面的昇騰,對標英偉達CUDA的CANN計算架構,然後就是MindSpore,以及最後的模型層。

華爲目前的模型能力不是最好的,但是如果能把從下到上的整個stack做起來,還是會非常厲害。

不過雖然華爲有開源框架,但它整個生態可能還是封閉的,有利於獨佔商業化回報,別人是不願意加入的。

觀察者網:華爲能夠從哪些方面更好地幫助國內開源生態嗎?

林旅強:舉個例子,零一萬物跟昇騰就有過合作。其實在很早之前,昇騰的朋友就來問過我們,能不能把零一的開源模型拿到昇騰上。我們不反對別人把模型拿過去,但問題在於,我們本來就是開源的,沒有收入,如果還要來自己花人力去適配昇騰,最後昇騰大賣,我們能夠得到什麼回報?

這其實不是華爲一家的問題。熟悉海外開源生態的人都知道,做開源不能只讓開發者去奉獻,他們一定需要得到某種回報。國內的開源生態建設,還有很多需要提升的地方。