C位觀察 | 曾毅最新解讀AIGC:從ChatGPT到Sora,哪些認知需要重啓?

*本站財經智庫原創文章轉載需經授權。本文不構成投資決策。

出品|本站財經智庫

編輯|崔亦鑫 主編|楊澤宇

本站財經智庫《C位觀察》節目一一看C位大佬解讀C位大事。獨家對話智庫頭部經濟學家、企業家、各個領域KOL,解讀時下熱議的財經和社會問題。

NO.043對話中國科學院自動化研究所研究員、類腦智能實驗室副主任、人工智能倫理與治理中心主任、聯合國人工智能高層顧問機構專家曾毅

60S要點速讀:

1、生成式人工智能技術的發展,並沒有真正做到科學上的突破。

2、生成式AI只是一個信息處理系統。它會犯一堆人類不犯的錯誤,大家要準備好。

3、當未來人類的部分工作被人工智能接替,紅利分配的方式可能也應該發生變化。

4、對於企業來說,基礎模型的構建還有很大的機會,還存在很大的顛覆性的可能;另外,相較於傳統的生成式AI大模型,終端側的生成式AI在應用方面更值得探索。

5、沒有倫理安全框架的人工智能,是最危險的一種人類發明。

6、當超級智能看待人類,像人類看待螞蟻,你能接受嗎?人類需要變革。

以下爲訪談精編:

-1985年,微軟推出 Windows 1.0,通過實現直觀的用戶圖形界面和鼠標操作,開啓了 PC 全面普及的新時代;

-2008年,iPhone 3G正式發售,iPhone 3G向第三方開發商開放了App Store,從此開啓了移動互聯網時代;

-2022年底,OpenAI發佈大語言模型ChatGPT,並迅速破圈,成爲歷史上用戶增長最快的消費級者應用程序。生成式人工智能模型隨之爆火。

微軟公司創始人比爾・蓋茨將OpenAI 的 GPT 模型,與“圖形用戶界面”的誕生相提並論;

英偉達CEO黃仁勳將它看作“AI的iPhone時刻來臨”。

-2024年2月, OpenAI推出全新的生成式人工智能模型——首個文生視頻模型Sora,再次震撼世界。

一、生成式人工智能技術並沒有真正做到科學上的突破

生成式人工智能Sora 在生成數據的真實性、連續性上的進步是明顯的,主要進展包括但不限於採用了更有效的對視頻數據統一表示與融合訓練的算法,以及用生成式AI來豐富用於訓練的視頻數據等,雖然相關的技術都不是此次Sora首次提出的,但是在若干技術的高效組合的工程化方面,達到了前所未有的用戶感知體驗。尤其是將視覺和聽覺數據跨模態生成,所帶來的用戶體驗是更上一層樓的。

但是,生成式人工智能技術的發展,並沒有真正做到科學上的突破。

生成式人工智能,只是一個工程技術組合優化的創新。它把很多已知的科學技術,通過大規模工程優化的方法,達到了用戶體驗方面的顯著提升,在用戶體驗方面取得了一個前所未有的高度。

從用戶的角度來說,它可以做很多事情,甚至給人一種感覺,它近乎接近人類。比如ChatGPT能回答一般智力的人可能也比較難回答的問題,特別是在知識的廣度方面。的確,生成式人工智能在用戶體驗上取得了很大的提升,但是,這不是基於科學技術突破所帶來的提升。

曾毅:ChatGPT並不是真正的科學突破(來源:C位觀察)

1950年,“計算機之父”艾倫·麥席森·圖靈(Alan Mathison Turing)發表了一篇文章——《計算機器與智能(Computing Machinery and Intelligence)》。其中,他提到判斷人工智能是否達到人類水平的方式,是將TA(人工智能)放在一個屋子裡,找一個人與TA對話,當這個人無法分辨TA是人還是機器的時候,我們可以判斷人工智能達到了人類的水平。

所以,從某種程度上來說,人工智能起源於一個欺騙。2014年,一個俄羅斯團隊開發的一款名爲“尤金·古特曼(Eugene Goostman)”的計算機軟件首次通過了測試,成功地讓33%的被試相信它是一個13歲的男孩。所以,第一次騙人成功的機器並不是ChatGPT。

除此以外,生成式人工智能背後的技術Next Token Prediction,以及基於人類反饋的強化學習的技術早就存在。比如,Next Token Prediction是第一代人工智能的創建者就提出的數學模型,在我看來,它對於真實世界的呈現或理解可能是一種過度的簡化。

所以,生成式人工智能技術的創新,並非顛覆性的科學突破。事實上,對於生成式人工智能來說,只要數據量足夠大、神經網絡的參數足夠多,那麼它在用戶體驗上都能達到相當高的水平。但是,這並不能說明人工智能技術的進展,這隻能說明以前的人工智能沒有機會應用到互聯網規模的數據,以及幾乎接近人腦規模的這種連接和參數的量,所以在用戶體驗上沒有經歷過這樣的體驗。

而且,現在大家使用的這種所謂的生成式大模型,它其實已經是一個工程的產品,它背後不僅僅是生成式的人工智能,還要結合一些其他技術。

比如,大家最初使用 ChatGPT的時候,讓它推薦人類歷史上引用率最高的科學文獻,它可能推薦了10篇文獻,但是當我們去做覈實的時候,會發現這10篇文獻根本不存在。

爲什麼ChatGPT要撒謊?(來源:C位觀察)

因爲生成式人工智能,它只是一個看似智能的大規模信息處理系統,它無法區分任務,它把所有的任務都定義爲生成式的任務。既然是生成式的任務,就不能跟原始的數據一模一樣。但是“查閱文獻”本質上是一個信息檢索類的任務。所以作爲一個服務系統,它就要把生成式人工智能技術,跟信息檢索等技術去結合。

所以從這個意義上來說,現在服務於大衆的生成式人工智能模型,本質上是一個大規模的工程化系統。它是一個現有技術的工程化的組合優化的創新,是大規模數據和大參數的積累,帶來的用戶體驗極大提升。

微軟公司聯合創始人比爾·蓋茨將 ChatGPT與當年的圖形用戶界面相提並論;英偉達CEO黃仁勳也將它看作“AI的iPhone時刻來臨”,但是在我看來,它們的相似之處更多在於用戶體驗方面——都給用戶帶來了耳目一新的感覺。而從科學原理角度來說,AIGC沒有太多新進展。

二、生成式人工智能不該被“過度承諾”

認爲“生成式AI在處理任務時就像真正的人一樣”,這是一種幻覺。因爲AIGC大模型會犯很多人都不會犯的錯。

比如,“恭祝大家龍年快樂”,這句話有幾個字?這個問題,ChatGPT就不一定能數對。

它最開始可能會回答“7個字”,我們告訴它輸錯了,它會告訴你,“是8個字”,但是,當我們再次繼續告訴它輸錯了的時候,它會重新告訴你,“是7個字”。(如下圖)

其實,這與生成式人工智能的編碼有關。我們在處理信息的時候,一個字符就是一個漢字。但是,它會把英文、中文等不同的語言都轉換成Token(模型輸入的基本單位)去表示,所以生成式人工智能背後的技術叫Next Token Prediction。所以,他只是一個處理器,它並沒有真正理解。

當然,若讓ChatGPT編一個小程序,來統計文本中的字數,它完全沒問題。我們可以利用這個小程序,再按照人的邏輯去處理之前我們提到的字數問題。

但是,不可否認的是,它有一定的創造能力。在創作藝術作品方面,有時候會給人耳目一新的感覺。但是,有時候很多細節也經不起推敲。比如某些具有視覺生成功能的大模型,讓它創作一幅楷書作品“和諧共生”,它可以生成一幅作品,但是這四個字可能是錯的,可能只有其中的1個字或3個字。

背後的原因,除了它沒有真正理解之外,關鍵是對於中國書法作品,它沒有足夠多的語料。假設標註這個字是“和”,可能需要輸入幾千張幾萬張“和”,如此級別的語料喂進去,它可能才能夠學好。

所以,當數據量不夠多的時候、當沒有足夠多的人類反哺的時候,我們甚至想象不到它會犯什麼錯誤。

現在很多人說,“人類歷史上見證了通用人工智能的誕生”、“人工智能系統已經全面超越了人類”,其實都沒有。 生成式人工智能既不通用,也沒有形成真正的理解。它現在仍然是基於人類智慧的一個產出,脫離了人類大規模的數據,它不太能夠真正工作。它並不能在任何場景下,解決我們所有的問題。

它只是一個信息處理系統。它會犯一堆人類不犯的錯誤,大家要準備好。我們應該謹慎地、適度地使用它。比如,與Sora相關的生成式人工智能技術,可以降低人工影視、娛樂、文化產品等產業的開發成本和門檻,所以我國的人工智能研究和產業,有能力一定要儘快趕上;但是我們也需要特別指出,這並不意味着生成式人工智能已經真正理解了我們的物理世界,並可以完全替代這些產業中傳統需要人類完成的工作。事實上,當前Sora系統生成的視頻,還會犯很多違反生活與物理常識的錯誤。

曾毅談生成式人工智能: 它會犯一堆錯誤 大家要做好準備(來源:C位觀察)

所以,當技術的發展波及到用戶、服務於用戶時,任何時候都不應該嘗試過度的承諾。這也是人工智能發展歷史上的問題。每一次過度承諾並不一定是科學家造成的,但是在產業推動的過程中,過度承諾和過度宣傳,使得技術在沒有真正準備好的時候,接觸了用戶,當然,需要用戶反饋是無可厚非的,但是當你過度承諾而又無法兌現承諾的時候,大家就會產生落差感,從而可能對此類技術失望。

比如,現在有一種宣傳大肆鼓吹,現在的人工智能已經能夠真正模擬人類的大腦,能夠構造數字人,以後甚至我們不需要主持人、不需要老師了,我們可以用數字人去替代等等,這些都是過度承諾。當出現了過度承諾的時候,用戶往往會非常嚴格審慎地去進行體驗。

所以,還是要再次強調,現在的生成式AI,它並沒有準備好替代人類。它沒有真正達到人類的智能水平,沒有真正產生理解。所以,公衆不應該對它有過高的期待,科研工作者和產業推動者,更不應該去助推這種誤解。

三、未來若人類工作被AI替代

失業問題 誰來負責?

未來,隨着人工智能技術的發展,某些重複性的工作,比如那些幾乎是模板化的編程需求量可能會降低。初級程序員的需求量隨之可能會越來越少,但是基於當前人工智能技術在發展中可能存在一定的風險、安全隱患,測試工程師的需求量可能會增加。

但是,這並不一定是一個壞現象。也許確實你在做的很多這種重複性性質的工作,它可能不是你想做的事情。如果是這樣,不如再多花點時間去思考,自己更感興趣的是什麼。未來工作的意義應該被重新定義,工作的形式應該更多樣化,更多地發揮人的人性。由此,人將重新認識自身的意義,而不是去用工作定義自己。

但是,有些人會說,我非常願意一輩子就在裝配線上做一個工人,我只要能夠換來收入,能夠生活,沒什麼不好。

如果你的需求只是生活的收入,未來當人工智能高度發達的時候,紅利分配的方式可能也要發生變化。

工作被AI替代了怎麼辦? 曾毅:AI部署方研發方應該承擔部分責任(來源:C位觀察)

當未來人類的部分工作被人工智能接替,這時候,紅利可能流向了人工智能的應用方、人工智能技術的提供方;或者,可能在構造這樣的人工智能的過程中,大量學習的數據來自於人類本身,比如來自於這部分被替代工作的工人本身的時候,我們需要考慮是否應該分配給這部分人更多的紅利?這是社會層面需要去思考的問題。

所以,未來人工智能工作替代帶來的社會問題,誰來承擔?我初步的想法是,至少人工智能的應用和部署方,以及人工智能的研發方,對於這種社會結構的轉變,其實是應該承擔部分責任的。

四、企業的機會在哪裡?

(一)相較於傳統的生成式AI大模型

終端側的生成式AI在應用方面更值得探索

現階段生成式人工智能大模型,若想在用戶體驗上提高一點點,它的代價是很大的,比如,把精確度從96.5%提高到96.6%,數據量可能要翻上去1/3甚至1倍,換來0.1%的提升。但是,這樣的代價真的值得嗎?

相較而言,終端側的生成式人工智能,在應用方面其實是更值得探索的。

終端側的生成式人工智能有兩點優勢。第一,它是資源受限的,無需特別龐大的園區作爲基礎支撐;第二,智能體的發展爲其提供了更多承載渠道。人工智能的發展有一個重要的方向是具身智能,就像任何動物都有一個身體,人類也是具身智能,我們對世界的認知需要通過身體的不同部位去感知。

爲什麼我們看到雞蛋的時候不會拿起來把它摔一下,但是當我們拿起一個乒乓球的時候,就會把它往地上砸?這是長時間地,通過我們外周神經系統、感知系統跟世界交互產生的常識。所以,很多的世界知識通過大規模數據去喂是喂不出來的,很多認知是需要通過交互的方式去產生的,而這並不一定需要一個特別大的生成式大模型去支撐。也許通過端的小模型,以交互式、強反饋的方式,去提升AI的智能水平,比大模型通過迭代、依賴更多的大數據去餵哺,可能會更有效。

曾毅談AI大模型: 很多人類認知通過大數據去喂 是喂不出來的(來源:C位觀察)

所以,在我看來,人工智能的發展很難越過具身智能。所以,它一定要通過端來探索和反饋,這個端可能是一個人形機器人、一隻機器小狗,或是每天跟着我們的手機等,通過它不斷收集我們的個性化數據,從而給我們提供更好的服務。它(端側的生成式模型)更多地是融入場景,或者是更個性化的,通過交互,獲得一個更精準的用戶畫像。這不是傳統的、基於大規模數據統計的生成式大模型能夠替代的。

(二)基礎模型的構建

仍有很大的機會空間

現在有一些人,特別是企業,認爲未來人工智能的機會已經不在基礎模型的構建上。他們認爲這條賽道的競爭之後會聚焦在頭部幾家企業,別人已經沒有機會了。在他們看來,未來就是基於生成式大模型,去構建基於端的服務。我不贊同這些觀點。

中科院曾毅稱真正的顛覆創新都不來自於大廠(來源:C位觀察)

在我看來,當前生成式AI在基礎模型方面,大家都遇到了瓶頸。當沒有足夠多的數據,並且算力提升仍然存在瓶頸的時候,智能水平的提升也必然會遭遇瓶頸。甚至更多數據的積累,似乎也難以實現智能水平真正的質的飛躍。

所以,基礎模型的構建,還存在很大的顛覆性的可能。

若按照已有的頭部大廠的構建方式,去構建一個基礎模型,這種工作意義確實不大,但是若採用一種全新的方式去構建基礎模型,機會還是非常大的,它的潛力是非常大的。

比如,用全新的方式去使用數據,極大規模地縮小可能需要的參數量,在這種基礎之上,再創新性地構建基礎模型。

而事實上,真正的顛覆創新,很多都不來自於這些大廠。當年大家也不看好OpenAI,2017年創始人之一的埃隆·馬斯克也選擇了退出,而正是在這樣的背景下,OpenAI開戰谷歌旗下的DeepMind,並隨後推出ChatGPT,一戰成名。所以,這種科學驅動的、有產業敏銳的創新者組成的團隊,反而更可能產生真正在基礎模型方面的未來顛覆式的創新。

某些企業之所以會說,“未來機會不在基礎模型的構建上了”,是出於他們是基礎模型的提供方,他們認爲基礎模型已經構建好了,接下去就需要大家去構建上層應用,把現有的基礎模型用起來。

但是,在我看來,這種觀點稍顯不負責任。上層應用是需要做的,但是前提是基礎設施已經搭建好了,而這一點仍值得商榷。在我看來,基礎設施遠遠沒有搭建好。

所以,當這些頭部大廠把80%精力投入在上層應用和基礎設施的進一步優化方面時,至少應該拿20%的人力、物力投入到真正顛覆性的創新中,投入到下一輪的準備中。否則下一輪競賽,他們將會花更大的力量去追趕。至於到時候還剩多少機會,就很難說了。

我國很多企業的問題是,一直在等風口。當他們覺得有一點點微風的時候,他們會認爲太危險,絕不投入;等到風颳起來的時候,比賽已經結束了。

曾毅談中國AI:中國的產業始終沒有學會 做真正長期的準備(來源:C位觀察)

所以,中國的產業創新爲什麼與其他國家有較大差距?我們到現在爲止都沒有準備好去做一次真正長期的準備,這是最危險的事情。當我們看到別的企業像微軟,它可以注資百億,給一個根本沒有得到廣泛認可的小公司進行豪賭時,這樣的故事在產業界已經發生了若干次。但在這個過程當中,我還是非常納悶,中國的產業怎麼還沒有學到呢?

五、AI的“中國時刻”何時到來:

下一輪的機會在哪裡?

爲什麼ChatGPT沒有產生在中國?事實上,人工智能的發展,它從發展的範式上已經顛覆了很多次,可以說沒有一次真正突破的科學基礎是來自中國。

爲什麼ChatGPT沒有產生在中國?AI“中國時刻”何時到來?(來源:C位觀察)

在這種情況下,我們往往是按照別人畫的路走,所以一直在追趕,一直比的是別人放出來的服務。但是別人放出來的服務,它的基礎設施可能是三年以前搭建好的,花了兩三年的時間在優化它的用戶體驗、收集用戶反饋,再用大量的人工去修改。

而我們國內的生成式人工智能,基本是一兩個月、三個月上線,三個月上線的都算是慢的。在這種情況下,用戶體驗如何跟別人比?我們根本沒有背後框架的積累。當然,在這種情況下,我們可以追趕,但是在我看來,這種超越不是真正事實性的。也許,我們在某一兩個應用的案例上,看上去似乎取得了比別人更好的結果,但是在我看來,這種所謂的評估,實際上都是片面的。就像一個學生參加考試,考了100分,是否能夠證明這門課他都學懂了?顯然不能,考試本身是以偏概全的考察,一張卷子上能夠容納的知識點是非常有限的。

曾毅: 中國要拋棄跟隨別人的思維 爲長遠計(來源:C位觀察)

所以,如果要真正迎來人工智能的中國時刻,就不能只是沿着別人畫的路進行追趕。

OpenAI誕生的時候不是一個簡單的延伸;Alpha Go基礎模型誕生的時候也不是一個簡單的延伸;當人工智能規則系統在被髮明出來的時候,它也不是對簡單的信息處理系統的一個延伸。它們都是在用另外一種思維去創新。

所以,中國現在就要佈局下一次的顛覆。但是,下一次顛覆中國的機會在哪裡?

其實,生成式人工智能的發展已經證明,智能模型的本質是需要顛覆的。在我看來,現在數據驅動的人工智能,不是真正意義的人工智能。因爲現在的智能來自於人類的數據,需要極大規模的數據和參數。但是同等智慧的獲取,人類並不需要如此大的數據做支撐。所以參照人類智能的本質,未來AI若要真正實現“智能”,當前的智能模型是一定要從本質上顛覆的。

曾毅:現在數據驅動的人工智能 不是真正的人工智能(來源:C位觀察)

未來的人工智能,究竟是基於目標和服務驅動去訓練的人工智能系統;還是合乎自然演化機制,模擬人的大腦結構、信息處理機制,從而受其啓發,構建成人工智能算法?

目前爲止,全世界能夠處理各種各樣的問題,真正具有通用智能,而且能夠穩定地工作幾十年的智能系統,就只有人類的大腦。

大自然數億年的演化,能犯的錯誤很多都已經犯過了,否則爲什麼現在人類的大腦進化成現在的樣子,而不是保留猴子大腦的結構?正是文明發展的需要。自然演化塑造了智能,我們要從自然演化中去學習智能的本質。人類就是最好的智能參照物,我們應該受其啓發去構造真正意義的智能,這纔是真正意義的人工智能。

六、絕不能以發展爲藉口

讓人工智能無處不在!

技術的發展永遠不是中立的,特別是人工智能系統。

在它沒有接觸人類社會的數據的時候,它可能是無善無惡的,但是當它接觸到人類數據,它就變得有善有惡了。若我們不在倫理、安全方面規制它,它就不可能知善知惡,因爲沒有人類的反饋,它沒有辦法區分善惡。

比如Sora在連續高精度視頻生成方面的進展,使得利用人工智能造假的效果到達了一個前所未有的高度,也給“眼見爲實”帶來了更大的挑戰,對於公衆而言,區分虛假信息變得難上加難。同時,視覺取證與執法也將面臨更大的挑戰。所以,一方面人工智能治理相關政策發展和落實要進一步跟上;另一方面,生成式人工智能技術研發的機構和企業要同步發展、推廣更高水平的自動化鑑僞技術與應用。

可以說,沒有倫理安全框架的人工智能,是最危險的一種人類發明。

曾毅: 沒有倫理安全框架的AI是最危險的一種人類發明(來源:C位觀察)

它可能把人類的惡通過數據學到並且去放大,並且採用負面的方式去影響社會。 甚至,有些人認爲,未來人工智能(超級智能時代)會像核武器一樣危險,可能造成人類社會的顛覆。

但是,在我看來,即便是超級智能沒有到來的時候,人工智能也有可能給我們帶來顛覆性的風險。因爲人工智能沒有真正理解的能力。

當它可以利用人類的缺陷,製造人類之間的衝突時,比如以某種方式激發類似欺騙、仇恨、敵對等負面情緒。當這些負面、虛假信息,給人類社會造成極端不信任、大範圍社會衝突的時候,它就會威脅人類生存,乃至帶來毀滅性的風險。

而這個時候人工智能系統甚至還並不理解什麼叫做衝突,什麼叫做不信任,這是最糟糕的。當它給人類社會大範圍地造成問題時,它甚至不明白什麼叫做問題。在我看來,這是現階段人工智能最大的風險。

除此之外,現在的人工智能仍是人類的一個輔助系統,但是,如果它被不合理地使用,比如把它當作一個決策系統,替代人類的決策;再比如,當它應用於戰爭,又被黑客利用的時候,那麼它就可能產生相當大範圍的殺傷力,甚至給人類造成類似於核武器級別的風險。

現在甚至有一種假設,有人認爲人工智能做決策快,所以考慮使用人工智能控制核武器。那將是世界末日。

所以,不要讓人工智能去代替人類決策,特別是關鍵的決策。人類要把自身的命運留在自身的手中,這是非常關鍵的。

所以,有很多在科學上可以實現的事情,但是在社會上我們都不應該去應用。當然,有人會說,中國人工智能要發展起來,不要管得太死。

曾毅:絕不能以發展爲藉口 讓人工智能無處不在!(來源:C位觀察)

但是,需要強調的是,可以商討的地方是那些灰色地帶,不是紅線。比如個人數據、個人隱私的問題,就是不可跨越的紅線。所以,發展人工智能,這條紅線應當是非常清晰的,絕對不能以所謂的發展爲藉口,讓人工智能無處不在,那是非常危險的。

所以,人工智能技術的創新者,一定要樹立正確的價值觀。

一個人工智能的服務產品,從誕生到它服務於社會,中間可能只有10分鐘的時間,它馬上可以部署在網上,開始收集數據、獲得用戶。但是想象一下,若它背後的技術創新者,從未接觸過任何社會學的教育培訓,沒有任何在倫理道德方面的考量,而完全是基於好奇心而去構建服務產品,這背後潛在的風險可能是巨大的。

所以說未來人工智能的創新者,他需要一個綜合交叉學科的培養,而不僅僅是對技術創新手段的學習。

人工智能的倫理安全,對於人工智能創新者不是一個選修課,而是一個必修課。

七:數字生命距離我們還有多遠?

人工智能技術的進展,並不一定能加速數字生命儘早到來。它們是兩種類型的智能,人工智能是使機器擬人化,數字生命是使人類機械化。

未來的人工智能也可能變得有生命,但是它就像一個新生兒,用自己的方式去觀察世界,像前文說到的以智能體的方式去探索世界;而數字生命是人類智能的一個刻畫、模擬和延續。

人類十幾年、幾十年的記憶存儲在我們大腦神經網絡的突觸當中,若想把突觸當中的每一個記憶解碼出來,並且構建在一個智能系統當中,目前在科學上還做不到。但是不代表未來不可能。

所以像《流浪地球2》裡面的場景,數字的圖恆宇和圖丫丫,在數字世界重建了他們的生命,這確實是未來人類一部分人延續的一種可能性。但是它現在還並不具備科學的完全的合理性。

但是,若構造一個數字生命,可能人類的缺陷也被構造在了系統中,而且這種缺陷可能會被放大。但是,另一種智能形式——純人工智能,即基於機器,使機器擬人化發展出來的智能,我們在構造它的時候,並非真正的大腦仿真,我們現在把它叫做類腦的人工智能,是腦啓發的人工智能。

它跟大腦仿真的區別是,我們希望看到的人類的惡,不要被構造在裡面,儘量只保留人類善的一面。

當然,這也是一種科學的願景,因爲存在即合理。在我們看來人類自私的一面,人類的惡,它可能是在自然演化的過程中被留下來的。但爲什麼被留下來?只有大自然知道。它可能是生存的一種機制,甚至是一種優勢。

構造超級智能 究竟要不要剔除人類的惡?(來源:C位觀察)

所以,未來超級智能實現的方式是多種多樣的。可能最先到來的是融合了人類的智慧,輔以人工智能的技術而產生的具有超級決策能力的超級智能體。

但是在我看來它不是真正意義的超級智能,真正意義的超級智能是,智能本身不依賴於人類的智慧,而是受到人類智慧的啓發。比如,基於機器的純人工智能;或者數字生命,它已經脫離了人類生物的個體,而以一種純機器優化的方式去運行,這種意義的超級智能可能是更純粹的超級智能,當然可能也是風險最大的超級智能。

作爲一個人工智能的研究者,我並不那麼期待成爲一個真正意義的數字人。而且我相信對於很多人來說,比如我的壽命就只有90歲,他可能真的非常甘於我的壽命只有90歲。而且,數字世界可能是未知的。如果未來我們的生命停留在數字世界,甚至可能它的存在與否就取決於別人了。

在現實生活中,我們還可以自己做決策。生活在數字世界中,可能更容易被算法干擾,如果別人修改了自己的大腦連接模式,在數字世界當中,我還是不是自己?可能存在這種風險。

但是,從另一個角度來說,未來現實世界中,會不會存在人工智能生命?若存在,人類能不能接受?

八、當超級智能看待人類

像人類看待螞蟻

你能接受嗎?

未來人類很可能不再是這個世界上智慧水平最高的物種,但是我們能不能夠接受這個現實?我們應該做何準備?

當超級智能看待人類 如人類現在看待螞蟻一樣 你能接受嗎?(來源:C位觀察)

某種程度上來說,現代意義的人類是以種族滅絕的形式,在毀滅了最接近人類的物種的基礎上,繁衍出來的現代人類社會。所以從這個意義上來說,真正的人類社會,在歷史上其實已經做過一次抉擇——人類是不能夠接受的。

但我希望未來的人類,能夠做好準備。在我看來,未來通用智能、超級智能到來的時候,智能水平可能會遠遠超越人類。未來,超級智能看到人類,可能就像今天的人類看到螞蟻一樣。螞蟻其實很有智慧,甚至有社會智能。曾經有神經生物學家說過,螞蟻社會合作的模式,是人類社會合作的典範。但是即便在這種認知的情況下,人類又是如何去對待螞蟻這樣的智能生命的存在的?

世界上人和螞蟻的比例是1:100萬。但是我們是如何去忽略這樣龐大的生命羣體的存在的?更何況不只是螞蟻,我們又是如何對待猴子、黑猩猩的?

所以,當超級智能看待人類,如人類現在看待螞蟻一樣,我們憑什麼說超級智能應當給人類留有生存的空間?

而且,如果它是真正的超級智能,它也有可能是超級利他的、道德的。所以,對於超級智能實現超級利他,我很有信心。但是對於人類能否準備好,接受超越人類智慧水平的另外一類生命的產生,我很沒信心。

因爲真正道德的產生對於一個人工智能來講,只要它學到人類產生自我的意識,能夠區分自我和他人,產生認知和情感的共情,在這個基礎之上產生道德的直覺,進而產生利他、道德的推理,它就有可能實現超級利他。

但是我問了很多朋友,我的學生、我的同事等,很多人是非常難接受這個社會當中存在智能水平遠遠超過人類的智能體的存在的。所以,現在超級智能的演化是在不斷加速的,但是人類觀念、思想的進化速度遠遠趕不上超級智能進化的速度。

最終人類和人工智能是不是能夠和諧共生,我覺得不在於超級智能,很可能在於人類本身。如果人類自己要作,最終結果非常難說。

所以,人類需要變革。

人類要給其它的生命留有餘地。

本站財經智庫(微信公號:wyyjj163) 出品

本站財經智庫是本站新聞打造的財經專業智庫,整合本站財經原創多媒體矩陣,依託於上百位國內外頂尖經濟學家的智慧成果,針對經濟學熱點話題,進行理性、客觀的分析解讀,打造有態度的前沿財經智庫。歡迎來稿(投稿郵箱:cehuazu2016@163.com)。