激辯:AI生成視頻往何處去?和國外差在哪?

《AI三人行》特別版:AI生成視頻往何處去?(來源:本站科技頻道)

作者|普子胥

出品|本站科技《態℃》欄目

12月22日,以“智能涌現·發現未來”爲主題的2023本站未來大會在杭州正式啓動。本次大會由杭州市人民政府和本站公司聯合主辦,杭州市經濟和信息化局、杭州市商務局、杭州濱江區人民政府、北京本站傳媒有限公司及本站(杭州)網絡有限公司承辦。

大會包括思想之夜、未來局、未來公開課、主論壇、AGI論壇、汽車科技論壇、靈感無界等,廣邀頂級學者、產業專家和行業精英,作答未來科技、人文藝術、時代個人的精彩變化。

大會AGI論壇的最後環節,《AI三人行》特別版圓桌對話正式展開。圓桌論壇上,南京大學智能科學與技術學院副教授易子立、靈動AI創始人雷海波,以及AI繪畫知名博主娜烏斯嘉、以《AI生成視頻往何處去?》爲主題展開討論。英諾天使基金合夥人王晟擔任對話主理人。

就生成式視頻國內外公司的差距這一話題,南京大學智能科學與技術學院副教授易子立認爲,包括Pika、Runway在生成視頻底座方面確實領先於國內廠商,但是在應用細分賽道上,國內做得更好,包括2D的數字人技術、AI社交技術,國內不管是賽道全面程度還是技術上都比國外走得早一點、快一點。並表示,國內沒有出現整體落後的局面,在有些應用賽道上比國外走得好。不過,算力方面是國內公司的劣勢,下一步隨着算力短板補足,在其他方面逐漸趕超是有可能的。

談及視覺大模型話題時,靈動AI創始人雷海波表示,國內大模型廠商近年來都做了文生圖、文生視頻的模型,然而,影響力卻不如國外的Midjourney。他認爲,造成這一現象的原因,技術、算力、數據集的差距只是一方面,從藝術角度在於國內廠商不懂美學。事實上,當下Midjourney每張圖的調性、氛圍、光影質感,已經遠超越人類的表現。未來,如果國內大廠能做出Midjourney一半國產的視覺模型,並結合高品質的數據集,以及行業認知的能力和產業化落地的能力,機會仍然存在。

就藝術創作和商業創作的平衡話題,AI繪畫知名博主娜烏斯嘉表示,在生圖場景裡面,沒有一張AI圖片是生不出來的,再炸裂的畫面、再炸裂的特效,一張圖片都能達到。但在視頻領域裡受到掣肘還是挺多的,因爲它沒有那麼多豐富的控制手段。比如,人物臉上的表情,比如悲傷、難過在生成視頻時一致性不夠,能看出來有點恐怖谷的效應。她表示,我覺得在未來發展中,我希望它還是有更多控制方式能讓我們精準控制視頻的生成。

談及今年以來的投資實踐時,英諾天使基金合夥人王晟表示,雖然今年整個AI投資看起來火熱,但在實際操作中,投資機構往往兩端集中:一端是資金端集中,即只有十幾家、二十家VC真正在投,真正敢投;另外一端叫做資產端集中,即投資機構標的項目比較集中,主要是在算力、芯片、GPU等。王晟談到,文生視頻平臺的創業公司必須有足夠的時間窗口去成長,而在沒有能力底座的窗口期下,投資機構會比較謹慎。

以下爲《AI三人行》特別版圓桌對話節錄:

王晟:今天是《AI三人行》特別版,《AI三人行》也是本站科技剛剛做的AI對談節目,這個對談類節目主要特點會從資本、從學界、從產業界3個維度,邀請嘉賓來去解讀AI裡一些熱點的事件。所以我們今天請到的嘉賓都是非常有特點的,有學界的老師,有在做生成式視頻產品工具的產業界的海波,也有在做AI動畫的知名博主,不是AI繪畫,是AI動畫的知名博主娜烏斯嘉。首先請大家做一個自我介紹,介紹一下自己,介紹一下在做的事情。

易子立:我是南京大學智能科學與技術學院副教授易子立,我的主要研究方向就是文本轉視頻、文本轉圖像,這樣可視的AIGC方面的研究。我以前在華爲、字節也有一段工作經歷,今年回到學術界,也希望通過自己的力量能把這個研究方向帶起來。

雷海波:我叫雷海波,我現在的項目是靈動AI,是基於視覺文生圖、文生視頻,在營銷側應用的一家公司。我個人過去有小20年的從業時間都是在設計和視覺影像這個行業,之前參與過幾家公司,其中一家公司也上市了,這個相當於是我們最近剛剛發起的一個項目,5月份啓動的。

娜烏斯嘉:我去年其實還是一位影視行業的從業者,因爲在今年年初的時候目睹了AI發展非常迅速,所以我就徹底投身於AI事業了,我現在是一名AI繪畫知識博主,同時也是AI的模型師和AI視頻的創作者。

王晟:我自己是英諾天使基金合夥人,也是《AI三人行》欄目的主理人。我們是一支投早、投小、投科技的基金,主要投天使輪和Pre-A輪,基本上希望給創業者第一張支票。目前英諾管理60億左右的早期基金,我們在AI領域裡是一隻非常活躍的基金,也是受到創業者、產業界和學術界廣泛的認可。

我們就進入到今天的正題,其實今天我們要討論的話題,最近我們看到AI最熱門的一個方向,就是我們說的AI生成式視頻這方面,不管是大模型還是應用,還是製作能力。我們最近看到一些突飛猛進的發展。你們怎麼看這一波突然涌現的這麼多生成式視頻的企業和目前的生成質量?它是已經走向了一條康莊大道,還是說也許整個發展階段只是一個初期?

易子立:我個人比較消極的,雖然說文生視頻包括文化圖,在自媒體上熱度非常高,引起了很多的關注。但是從應用的角度來講,它們並沒有真的迎來大爆發。當然許多企業也在嘗試使用,包括中國的設計公司,我知道它們也在翻牆來輔助設計。

但是他們在用了之後發現對人力的成本節省,是節省一些,但沒有形成根本上的節省,所以無法做到全自動,還有很多提示詞工程、篩選等工作去做。所以目前文生圖、文生視頻也好,從技術上還沒有達到十分成熟,完全替代人力或者以後直接用劇本生成電影的Level,我們離這個目標還有很長的路要走。

王晟:那能給一個判斷嗎?您覺得後面還是三年之後還是更長的時間能突破?

易子立:我個人覺得可能是五年之後,這取決於我們算力水平。全球算力水平目前芯片工藝都有影響,如果我們能做到非常細粒度的操作視頻,在技術範式上還要進行革新,對範式上還要一到兩個數據級。

雷海波:我是這個行業一線的從業者,我二十多年一直在做設計行業,後來做了設計平臺、設計媒體,然後每天都接觸到國內頭部所有幾乎叫得出名的設計公司和設計大師。

我就舉個例子,昨天晚上在北京跟中央每院設計學院的院長吃飯,他中間開了一個視頻會,視頻會講的所有進行機器人的項目就是用文生圖來實現的,你可以想象中央美院在日常教學和真正對客戶對接的時候已經大範圍用到了文生圖的大模型。

我爲什麼做靈動AI這家公司?去年七八月份的時候開始Midjourney公測,我當時比較早拿到內測賬號的中國設計師,我用一個月時間生成了1.2萬張圖,我當時就舉手投降了,我作爲二十多年從事設計經驗的老鳥,我還是中國工業設計協會的副會長,我當時跟所有的同事和所認識的朋友、設計界的朋友都說我們可以投降了,我們要擁抱AI和文生圖的大模型。

當然今天討論的是文生視頻,坦誠講文生視頻,我們真正要做2B的商業化還是有點遠。其實對於博主來講還是非常受用的,一下子就搞幾十萬、幾百萬點擊的轉視頻而且很吸粉。

總結一下的話,在專業2B這個領域文生圖已經足夠用了,而且遠超人類設計師的表現,完全可以舉手投降。但是文生視頻我個人感覺至少要半年到一年的時間吧。3D只能做做遊戲吧,現在還是一個玩具。

娜烏斯嘉:我其實也屬於積極派,我是從應用領域,我是真正使用過並且有商業的落地項目,我們要了解一下AI視頻到什麼程度了,簡單來說是四種。

第一種風格轉化,平常有生成的視頻,我們把視頻轉化成二次元或者2.5D的。

還有就是今年剛開始爆發的瞬息全宇宙,很有名的撒鹽,然後從鹽開始不停在開始演化,演化出各種各樣的畫面來,這是我們在傳統視頻框架無法達到的,根本沒有辦法做,這是AI通過前一幀到後一幀的演算,前一幀是什麼樣子的,後一幀通過上一幀改變什麼到了下一幀。這個視頻在今年剛剛新衍生出的新方式,還有就是Pika、Runway,這些圖生視頻你給它一張圖片,最後一種方式在這幾個月內衍生出的新方式,它通過一個插件,大家看到過從小到老或者叫時代變遷,它沒有任何的轉場一條長視頻,從一個人嬰兒剛出生的時候到最後長大了以後包括老了,死了,整個一段都是非常絲滑的轉換,包括說時代的變遷從古代埃及開始到尼羅河,再到現在的中國再到歐洲之類的,所有的視頻都是非常絲滑的轉換,現在其實就是這四種。

因爲它的生成邏輯跟我們傳統的邏輯有點不一樣,它帶來新的視頻模式,技術是爆發的,但是從應用層面來看的話,它確實離我們實際上拍電影、拍短劇、拍電視劇差的很遠的,我們現在其實實際應用領域就是廣告,因爲很多品牌方想嘗試一下廣告。其次就是我們可以做電影預告片,這個很多人在做了。

我們還可以做一些推文,就是推文小說我們可以很快生成圖像,讓大家看到小說一些有可能的世界觀,包括大家說的短視頻領域,短視頻領域只需要很短的動畫抓大家的眼球就可以了,在這方面應用還是挺充分的了,但是我們去做電視劇、電影、網劇還有很遠的路。

王晟:我們現在生成式視頻主流的技術範式是什麼?現在包括我們看到PIKA、Runway的技術方式離最終五年突破的東西會有泛式改變,這是第一個問題,差別是什麼樣?第二個問題是說我們最近看到顯眼包都是外國公司,包括Pika以及Midjourney,如何看待國內和國外技術上的差距?

易子立:首先第一個問題,目前文生視頻主要的範式,現在業界的主流範式都是基於擴散模型,擴散模型一般它是基於T2I文本轉圖片的基礎上再做文本轉視頻的基礎模式,做成文本轉視頻基本模型之後又可以做到圖片轉視頻,視頻轉視頻這些都可以做,所以現在主要路線還是擴散模型。

但是未來主要的模式就是要回歸到跟大語言模型類似的範式,就是基武Transfomer的技術,而是像自然語言一樣預測下一個Token,Token和圖片之間怎麼建連?首先要把視覺數據轉換爲離散的Token,這可以用自然語言的模型去處理圖片和視頻的生長,這個範式爲什麼會比擴散模型好呢?首先它的建模型要擴大很多,但是它的算力要求會更高。

最新的像Google就是基於這種技術路線,這種技術路線在兩年前也用的這一代技術,只不過當時效果沒有超過擴散模型,出現這種結果是因爲現在算力是有限的。隨着算力增加這個變量改變了之後,新的範式逐漸取代於舊的範式過程。

第二個問題就是說我們跟國外的差距,我們現在主要熱點關注剛纔說的幾個產品Pika、Runway都是國外的,它們做生成視頻底座方面確實領先於國內廠商,但是在應用細分賽道上,其實我覺得國內做得更好,包括2D的數字人技術、AI社交技術,這些國內做的不管是賽道全面程度還是技術上都比國外走得早一點、快一點。

其實我覺得國內沒有出現整體落後的局面,還是在有些應用賽道上比國外走得好,當然我們還需要努力,我們在算力方面被卡了脖子,算力方面是我們的劣勢,但我覺得隨着時間的變化,包括我們在算力短板補足之後,在其他方面逐漸趕超是有可能的。

王晟:我再多問一個問題,Transformer比用Diffusion的模型在同樣訓練規模的情況下,它要吃到多少倍的數據算力?第二個問題,因我們把所有模態統一在一起,讓它掌握更好知識對應關係,這會不會讓這個領域已經沒有創業公司的機會?而是大模型公司尤其是大模態大模型公司變成各種生成類的公司?

易子立:首先說算力消耗方面,Transformer對算力要求更高,一般像我們最早的時候對比Transformer路線跟Diffusion的路線,它的數據量要達到一個域值,比如說達到一個億以上才能出現比較好的效果,在低於這個域值時效果非常差的。但是擴散模型在幾百萬圖片到千萬級的片效果就已經不好了,達到一個億的時候就能夠超越Transformer技術,說明對數據量的要求和算力的要求,Transformer投入產出比更低吧。

但是爲什麼說以後隨着算力的提升達到一兩個量級提升之後路線更有潛力?我剛纔說它建立了長城依賴,第二個就是它可以實現像素級的生成,我們在極端的情況下,把每個像素當成一個Token這樣預測,它的可操控性、生成的力度、還原度方方面面質量都是可以操作的,它的潛力是比擴散模型要大。

第二個問題,如果說以後視頻圖片生成以後都走了Transformer路線是不是會被大語言廠商半路截胡?這個我不好預測,目前來看Pika、Runway也好它的市場份額很高,它的滲透率也在逐步提升,未來它到底是根據保持它的業務優勢快速進行技術迭代或者說技術範式的提升,保證自己不掉隊,如果做到這一點,還能保持它的業務優勢,如果沒能迅速反應提前佈局,是有可能被大語言廠商半路截胡。

王晟:海波,你們就是在做一個應用,爲什麼會選擇這個應用,包括在你看來這種生圖也好,生視頻也好,最好的應用場景有哪些呢,哪些場景我們應該以什麼思維方式去判斷這個場景適不適合呢?

雷海波:爲什麼做應用,因爲我不是技術出身的,做不了大模型,只能做應用,我是設計背景的。我想延展一下,探討一下所謂國內我們講的文科生大模型還是藝術生大模型的問題。所有人討論的視覺大模型都不是中國人的,Midjourney,市場佔有率比較高的Runway都不是。

坦誠來講,爲什麼我們中國一波做大模型的廠商也都做了文生圖、文生視頻的模型,包括我們所認知的國內最早“文某閣”,爲什麼它做不過Midjourney呢,這是技術能力的問題嗎、算力的問題嗎、數據集的問題嗎,我覺得如果在我這個藝術生來看是美學的問題,我覺得他們不懂美學。我們可以看到Midjourney每張圖出來都是非常有設計調性、氛圍、效果超級好、光影質感,特別是昨天發的V6,真的是遠超越人類的表現了。你要去訓,它的效果也非常好。Runway稍微差一點,它效果已經很強了,因爲我們講的是文生視頻。但國內有哪個模型能用呢,我覺得做應用是有機會的,因爲那幾個模型進不了,你無法調用它的API。

我覺得國內有某個大廠能做出Midjourney一半國產的視覺模型,我覺得應用側一定會有更多微調的機會。結合高品質的數據集,以及行業認知的能力和產業化落地的能力,我覺得應用一定是有機會的。

王晟:你覺得我們基礎模型能力不足,反而也影響到了行業落地的效果是嗎?講一下你落地的場景,你爲什麼會選擇這個場景,這個場景有什麼優勢?

雷海波:我們落地的場景,目前比較簡單,我們只找錢最多的場景。在我的認知裡面,目前錢最多的場景就是營銷,營銷裡面每個人都躲不開的就是電商。電商這個場景雖然很卷,但你得想一下過去這麼多年,整個在電商營銷領域上億的商家和幾十個億的SKU背後物料是怎麼生成出來的,都是靠人工去實現的。我們現在有沒有一個可能性,不管是文生圖、文生視頻還是文生3D,如果能保證商家上傳商品本身在這幾個模態裡保持不變,又能和這三個模態模型融合到一起,變成商品圖、海報、短視頻,甚至3D交互的模態內容,我覺得這是有機會的。

王晟:娜娜既是一個藝術家,又是一個內容創作者,我們覺得這兩個還是有區別的,藝術家可能更多是想完善一些藝術作品、藝術追求。內容創作者可能要接一些商業的活。

你現在在整個文生視頻裡怎麼平衡,哪些是你的藝術創作,哪些是一些商業上面的創作。從你自己的角度來講,你想追求的是什麼,是兩個同時目標在追求,還是最終會選一個,還是怎麼樣的路徑?

娜烏斯嘉:一致性的問題,其實要靠訓練模型來解決。剛纔說電商,電商的極限,比如你想出一個人,或者出現一個IP,或者一個產品,訓練模型最後能還原的程度最高就達到80%左右,已經頂天了,已經不錯了。你想讓它和原先的一模一樣,那還需要一些控制方式,抗生態的控制模式。

剛纔說到底是藝術作品還是商業的應用,我其實很想平衡裡面的,但它不一樣,有的收了錢,你不得不做。有的是出於自己的想法,我去創作的。我原來有一個slogan,在AI世界裡我是無所不能的。我覺得在生圖界面,在生圖環境下,其實已經是無所不能了,我想生成一張什麼樣的圖片,剛纔說的打不過就加入,因爲它真的可以投降了。在生圖場景裡面,沒有一張AI圖片是生不出來的,只要你想得到它一定能生的出來。再炸裂的畫面、再炸裂的特效,一張圖片都能達到。但在視頻領域裡受到掣肘還是挺多的,因爲它沒有那麼多豐富的控制手段。

比如表達感情,人物臉上的表情,比如悲傷、難過,比如人物一致性,因爲在生成圖片時就有人物一致性問題,在生成視頻時更有這樣的問題比如人物說話時,雖然已經有很不錯的自然口形,但真正在做的時候和人念臺詞嘴形是不一樣的,能看出來有點恐怖谷的效應,覺得這個人不正常,講話不應該這麼講。我覺得在未來發展中,我希望它還是有更多控制方式能讓我們精準控制視頻的生成,就像圖片一樣。

我覺得有可能有兩種分支的,其實簡化生成方式與精細控制是一個矛盾體。你一方面希望每個人都能成爲導演,大家都能非常開心擁進去,通過一句話生成一個電影、一個短片。但如果你真的想生成一個藝術品的話,你對它的控制是方方面面的,比如加入一些專業的控制,鏡頭怎麼去走、角色怎麼建立,他是什麼樣的骨骼,你要生成骨骼,生成表情控制。場景是什麼樣的,光線是什麼樣的,在一部片子中需要考慮的元素非常多。當你對它控制越來越多時,如果它是一個軟件,它就會很龐大,你的應用場景是好幾個菜單不同的。這個又和我們剛開始說的每個人都可以當導演這件事情有一點相悖的,因爲每個人都可以當導演,我上去說一句話就生成出來了,我覺得在未來可能會往這兩個方向發展。

還有,我希望大家要在未來場景裡去適應感受。你的創意其實大於你掌握的技術,一定是你想到什麼,有什麼更獨特的想法,纔是你從人羣中脫穎而出的idea。

王晟:我特別認同娜娜最後說的一句話,作爲我們來講最重要的是創造性的思想,你實現它往往只是一個技能的過程。也就是說如果AI能夠把我們的創造性想法更快的高質量變成一個結果,那人類也許不用浪費那麼多時間去學習那個技能。就是韋青老師講的,你先問自己想做什麼,不想做什麼,然後再看看AI應該解決哪些問題,肯定想把我們不想做的工作交給它。

娜娜反過來又把問題拋給了易老師,包括海波,模型的能力、模型的一致性,這是個科研問題。軟件是不是好使、平臺是不是好使,這又變成一個工程產品的問題了,實際上我覺得是這三part聯動的。

我稍微用一點時間講一下我們在一年多投資實踐一點點相關的看法。

其實今年雖然整個AI投資,大家感覺好像非常熱,這是因爲各種媒體報道非常熱。實際上我們看到的特點,我們叫做兩端集中:一端是資金端集中,就那麼十幾家、二十家VC真正在投,真正敢投,真正出了手。另外一端叫做資產端集中,也就是項目,我們投的項目很集中,就集中到那麼20來個項目上面去,絕大多數錢,百分之八九十的錢都在很少的項目上。大家在投什麼呢,一方面在投info,我說的info是整個AI訓練和推理的環境,說白了最主要是在投算力,投很多的芯片、大算力,GPU,雲端,或者端側,各種算力大家在投。另外一些就是InfiniBand、無損網絡、高速網絡、光通信模塊、高速SDN交換網絡、交換機等。當然再往上一part就是投大模型,大家也看到在大模型這個領域裡下去了非常多的錢,但其實大模型創業公司就是那麼幾個,在應用側很少。

我們今天回到生成式視頻這個角度來看,其實從我們的角度來講,我們前年就在看文生圖,但一直沒有敢投。今年我們一直都在看文生視頻,最終結果也是沒有敢投。其實核心有一個問題,這種基礎能力的平臺太燒錢了,所以大家就需要砸很多錢給一個創業公司。這個創業公司必須有足夠的時間窗口去成長,如果說整個業界,包括大企業,包括這些做大模型企業也在往這個方向做。包括像一些大公司,像字節都在做,字節好幾個team在做生成式視頻。字節、阿里、騰訊這些都在做,這種情況下沒有能力底座的窗口期,這個方向對於中國投資人來講確實是比較難投的。

當然了,退而求其次,大家現在比較高度關注文生視頻發生的應用,以及如果多模態大模型在明年相對完善一點,我覺得這個易老師會樂觀一點,多模態這個方向上。

易子立:多模態的話,我其實涉及到主要是文本和圖片視頻的結合,語音這方面暫時還沒怎麼涉及。這個方向確實,如果具體看任務,要做一個多模態的基礎模型,目前確實除了GPT4,GPT4是目前最好的多模態基模,這是肯定的。不知道GPT5會做成啥樣,目前來看多模態確實還是處於一個需要攻關的階段。

王晟:最後,我就想請教一下幾位嘉賓,你們在明年有沒有給自己一些目標,你想實現什麼樣的目標?除了通過我們自己的努力,還需要哪些環境能夠幫助你更好實現這些目標,或者希望誰,比如政府,這些大的企業,還是客戶,能夠更好參與到其中,怎麼樣能夠幫助到你們?

易子立:我現在是作爲一個高校裡的科研工作者,我們蘇州校區也是剛剛建立,在搭一些基礎設施。基礎設施希望能夠儘快搭好,去做一些比較前沿的研究。我本人還是會繼續在圖片視頻生成方向上發力,因爲現在技術範式也在發生改變,而且視頻的理解和視頻的生成也開始走向大統一,所以我們後面也是借視頻生成這樣一個技術去做CV的基礎模型。當然我們也不能做通用的基礎模型,我們可能會選一些細分賽道,比如剛纔毛老師提到的工業領域的基礎模型,做工業缺陷檢測、做工業機器人,因爲他們看到的場景相對比較封閉一點,不是那麼開放,而且相對是比較垂類的場景。做一些這樣工業視覺的基礎模型,生成和理解都能做的這種,我們會向這個方向發力,當然我們最缺的當然是錢和算力。

雷海波:剛纔說文生圖,文生視頻,今年我們主要還是發力在文生圖,我們管它叫設計垂類行業模型研發以及端到端應用層面,表現出圍繞電商一些營銷場景。我們其實也很快看到文生視頻的能力,我覺得在某些特定的階段文生視頻和商品如果能夠完美融合的話,其實是非常能夠解放創意的生產力,我覺得這個領域是我們明年要重點發力的。從長期來看,也是要看真正在3D生成層面,因爲只有3D生成達到高質量工業級能力時,我們整個工業設計,或者設計才能得到徹底的解放,所以我其實也是期待着,不管是國內這些大模型廠商能夠在這個領域多發些力。當然我們也期待像英諾這樣國內頂級VC多投一點應用,這個很關鍵。

娜烏斯嘉:我自己在明年很簡單,我覺得在明年一定要做出一個真正意義上AI短片,真正講故事的那種。其實我需要的就是技術支撐,不管它是在新的層面上用一些新的控制手法可以控制整個視頻,還是和三維結合,把AI變成一個三維渲染器,都是可以實際在應用當中幫到創作者的方式,所以我就覺得加油。

王晟:娜娜對我提出要求,海波也對我提出了要求,其實這一波AI,我忘了上午哪個嘉賓提到的《科學無盡的前沿》這本書,布什之前爲美國科技發展定的綱領,非常重要。去年再版,重新做的序裡提到《科學無盡的前沿》裡所有思想、所有規劃都是非常好的,但到今天這個時代缺了一part,就是全社會,不光是科學家,而是全社會對科學的感受、認知、共同參與,這件事不是個別角色的問題,這是全社會的問題,需要從政府,需要從產業、企業家、創業者、內容工作者、科學家、媒體、大廠、投資人等共同參與,積極出力,才能使得這個產業更好的發展。我們確實希望更好追趕美國吧,因爲我們現在確實還是有差距。

謝謝大家,謝謝各位嘉賓!