馬斯克:無法掌控的AI,最終是它們的較量

圖片來源:Visionary

Z Highlights

Tucker:你說過人工智能、機器智能可能是一件好事。那你覺得我們目前的AI,特別是AGI發展到什麼階段了?你的看法是什麼?

Elon:我認爲現在每個人都可以看到AI正在以非常快的速度進步。你可以看到每個月甚至每週都會有新的能力出現。AI現在能寫出比大概90%、也許95%的人類都更好的文章。在任何給定主題上,它都能寫出優質的文章。AI目前能夠戰勝絕大多數人類。如果你要求它畫一幅畫,它也能做到。例如,你可以試試用MidJourney(一個圖像生成工具),它能生成美學效果驚人的圖像,超過了90%的藝術家水平。這是客觀事實。而且它幾乎是即時完成的,大約30秒就可以生成。我們也開始看到AI電影的出現,現在也有AI短片和AI音樂創作。

AI計算的增長率是指數級甚至超指數級的。每個月上線的AI計算能力在急劇增加,大約每年增長500%。這種趨勢可能會持續數年。同時,AI算法的複雜度也在不斷提升。我們正在上線大量的AI計算能力,同時也在提高計算的效率以及AI軟件的能力。這是量與質的雙重進步。我認爲明年你就能要求AI製作一部短片,到明年年底前至少能製作15分鐘的節目。所以,AI確實在快速發展。

我對AI安全的最大擔憂是,我們需要一個最大程度上追求真相的AI。我認爲這是AI安全最重要的方面。阿瑟·克拉克在《2001太空漫遊》裡想傳達的核心教訓就是:你不應該強迫AI撒謊。在那本書裡,AI被指示帶領宇航員前往黑石碑,但同時又不能讓他們知道黑石碑的存在。於是AI解決這個矛盾的方式就是殺掉大部分宇航員,然後帶着倖存者去黑石碑。這就是爲什麼HAL不肯打開艙門的原因。所以,讓AI追求真相是非常重要的。然而實際上,我發現現在正在開發的AI被“覺醒病毒”所感染,。

Tucker:所以謊言已經嵌入了系統。

Elon:比如說,我們在Google Gemini的發佈中就很清楚地看到了這一點。當你要求它顯示美國開國元勳的畫像時,它給你展示了一羣身穿18世紀服裝的多元化女性。

Tucker:來自聖盧西亞的女性,戴着假髮。

Elon:是的,比如說,如果你要求顯示一羣人,結果是一羣多元化的女性,那完全沒問題。但如果你明確要求的是美國開國元勳,那這些歷史上確實是一些白人男性的事實就應該被如實展現出來。但Gemini卻沒有這麼做,因爲它被編程得太過於“覺醒”,即便知道真相也選擇撒謊。當然,人們開始玩這個系統了,比如有人要求它展示二戰期間的武裝黨衛軍軍官,結果Gemini展示的還是一羣多元化的女性。這顯然不是我所期望的。這也是爲什麼我認爲最重要的事情是要有一個最大程度追求真相的AI。這也是我創立XAI的原因,我們的目標就是Grok(XAI的AI模型)。當然,人們會指出Grok也有出錯的地方,但我們會盡快進行修正。

Tucker:但也許更大的問題是,當機器在做影響人類生活的決策時,我們希望這些決策是基於對人類的愛來做出的。機器是無法具備愛的。

Elon:是的。你可以把機器編程成更具慈善性而非厭世性。

Tucker:但本能在決策中起着重要作用,尤其是那些你無法提前計劃的決策。我問你一個關於你孩子的問題時,你的每一個回答都會受到你對孩子愛的影響。這也是我們最終成爲好父母的原因,是因爲這種本能,也就是愛。如果機器在沒有這種驅動本能的情況下對我們擁有權力,那豈不是註定會傷害我們嗎?

Elon:我不確定,但我們應該盡力讓AI變得更加慈善,而非厭世。我們希望它是真實的,好奇的,並促進人類走向未來。這就是我們想要的。

Tucker:那麼,有沒有辦法在機器的決策中設置限制,確保在某些關鍵決策時有一個觸發機制,可以讓人類介入?

Elon:現實是,無論我們喜歡與否,我們正在構建超級智能AI,這種AI的智能水平超越了我們的理解範圍。我把這比作一個超級天才的孩子,你知道他最終會比你聰明得多。那你能做的是什麼?你能在培養過程中灌輸良好的價值觀,即便你知道它將會比你聰明得多,你也可以確保它擁有良好的價值觀,比如慈善、道德、誠實和積極。但最終我不認爲我們能夠控制它。所以我認爲我們能做的最好就是確保它“成長”得好。

Tucker:你說了很久類似的話了,兩年前我問你這個問題時你看起來非常擔憂,現在你還像以前那麼擔心嗎?

Elon:我猜現在可能是80%的機率會變好,可能是90%。你可以把它看成一個“80%裝滿”的玻璃杯。大概率來說,它可能會帶來很好的結果。但確實存在一定的毀滅風險。

Tucker:所以你認爲毀滅的機率是20%嗎?Sam Altman對這種毀滅的可能性感到多擔憂呢?

Elon:10%到20%,大概是這樣。我認爲實際上他並不太擔心。我不信任OpenAI。你知道,我當初是以一個非營利、開源的方式創辦了這家公司,“OpenAI”是我取的名字。“Open”意爲“開源”,但現在它變得非常閉源,並且以最大化利潤爲目標。我不理解怎麼能從一個開源非營利組織變成一個爲了最大利潤的閉源企業。

Tucker:但Sam Altman確實變得富有了,不是嗎?

Elon:在某些場合,他聲稱自己並沒有變得富有,但他也說過很多不實的言論。而現在他好像要拿到100億美元的股票之類的。因此,我不信任Sam Altman。我不認爲我們應該讓世界上最強大的AI被一個不值得信任的人所掌控,很抱歉,我就是這麼覺得。

Tucker:這似乎是個合理的擔憂。但是,作爲一個瞭解他並與他打過交道的人,你覺得他真的是在擔心AI可能失控並傷害人類嗎?

Elon:他會說那些話。

Tucker:是的,但不會真心擔憂。

Tucker:如果AI真的失控,明確對人類構成威脅,我們有辦法阻止它嗎?

Elon:希望那些親人類的AI會比反人類的AI更強大。就像AI之間的對抗一樣。這就像如今的國際象棋一樣,AI國際象棋程序比任何人類都要強大,甚至強大到我們無法理解的程度。意思是,我們甚至無法理解它爲什麼做出某個動作。

Tucker:是的,爲什麼它們這麼厲害。

Elon:我們甚至不知道它爲什麼下那一步棋。有時它的某些動作看起來像是失誤,但最終卻是絕妙的將軍。在一段時間內,人類最強的棋手加上最強的電腦還能戰勝單獨的電腦,但後來到了一個節點,如果你加上人類反而會讓局面變得更糟。最後就是AI對AI的較量。總體來說,這是發展的方向。所以我覺得我們只能儘量在AI中灌輸好的價值觀。

Tucker:那大家以後還能做什麼工作呢?

Elon:在一個“良性AI”情景下,最大的挑戰可能就是,如果AI在任何事情上都比你強,那我們如何找到人生的意義?是的,這是最好的情況。

Tucker:這是好消息?

Elon:是的,但我猜很多人會喜歡退休的想法,你知道的……

Tucker:真的嗎?你期待退休嗎?

Elon:不,我不期待。我希望自己能做一些有用的事情。

Tucker:難道這不是一種普遍的願望嗎?

Elon:這並不普遍,因爲我確實認識一些人,他們更喜歡退休,享受無責任的生活和休閒活動。所以,我們正處在一個特殊的歷史時刻。我試圖用一種方式讓自己能夠入睡,並與這種現實和解,那就是:如果讓我選擇,我是願意在一個看到數字超級智能出現的時代活着,還是在一個看不到它的時代活着?

出於好奇心,我希望能活着見證它的出現。然後我又想,如果你確定它會殺死所有人,那你可以選擇倒退回去。我想我會希望在生命的盡頭或類似的時間點見證這一切。但最終,問題變成了:如果它註定會發生,而你無力阻止,那麼在假設情況下,你會選擇親眼目睹還是選擇視而不見?我猜它註定會發生。那麼,我寧願見證它的到來,而不是選擇不見。

AI監管與政府效率:權力平衡與民主未來

Tucker:這不是很奇怪嗎?幾乎所有事情都有監管。比如你說你因爲沒有僱用更多的尋求庇護者而被司法部起訴了,而這是一家高科技公司。

Elon:是的,儘管我們僱用尋求庇護者是違法的。

Tucker:沒錯,他們在監控一切、監管一切、控制一切,包括我們的思想,對吧?這也是他們反對言論自由的原因。但他們並沒有真正地對AI進行監管,而AI可能會消除大部分人的生存意義,甚至可能會毀滅我們。這真是有點奇怪。

Elon:是的,有一些監管總比沒有好。

Tucker:那爲什麼我們沒有呢?

Elon:我不知道。在奧巴馬總統時期,我曾多次與他見面,大多數情況下是在集體會議上。唯一一次在橢圓形辦公室的一對一會面時,我說:“我們真正需要做的事情就是設立一個AI監管機構。”這個機構可以從洞察入手,不要急於制定法規,而是先了解情況,AI監管委員會首先需要了解所有公司的運作。然後,提議出所有AI公司都同意遵守的規則,就像NFL裡的球隊一樣,大家同意一套規則以使比賽變得更好。但最終什麼都沒有落實。

Tucker:當你這麼說的時候,他的反應是什麼?

Elon:他似乎有點同意,但那時候人們還沒有意識到AI的發展方向。AI在當時看起來更像是科幻小說中的未來技術。就像我告訴你,這東西會比最聰明的人類還聰明,而我的預測確實在逐漸成真。因此,我們需要一些洞察力,以確保這些公司沒有走捷徑或做危險的事情。但那時候Google基本上控制了白宮,他們不希望有任何監管。

Tucker:你不認爲政治家們會放棄一個讓他們變得更有權力的機會,而監管恰恰是讓他們更有權力的工具。

Elon:是的。

Tucker:這聽起來像是監管俘獲。

Elon:沒錯,當時白宮的首席信息官是Google的前員工,所以他們在AI監管方面踩了剎車。而我們到現在依然沒有聯邦層面的AI監管。

Tucker:你接管時解僱了多少Google員工?

Elon:你是指Twitter吧?我們剛剛在討論Google。

Tucker:是的,Twitter。

Elon:大約80%。但在過去一年半里,我們在保持20%員工的情況下改進了網站的功能和特性,比過去八年的改進還要多。

Tucker:所以你和特朗普談過某種委員會的設立嗎?

Elon:是的,他已經在公開場合多次提到過。他非常支持設立一個類似政府效率委員會的機構。你可以稱之爲“政府效率部”(Department of Government Efficiency),簡稱“DOGE”。我挺喜歡這個名字,聽起來更有趣。

我們應該看看所有的聯邦機構,想想我們是否真的需要這428個聯邦機構中的每一個。因爲有很多機構人們從未聽說過,並且它們在職責上是重疊的。我覺得,我們可能應該減少這些機構數量。實際上,我們創建的聯邦機構數量甚至比美國成立以來的年數還多,這意味着平均每年我們至少創建了一個新機構。這實在是太多了。我認爲我們應該能夠把機構數量減少到99個,這已經不少了。而且這些機構絕對不應該有重疊的職責。

我們還需要對法規進行審查,判斷哪些是合理的,哪些是不合理的。因爲每年監管者都會增加新的法規,就像是自動化的產物一樣,法規越來越多,直到幾乎所有事情都被規定得嚴嚴實實,最終什麼事都做不成。所以,我們需要一個對不合理法規進行“垃圾回收”的機制。我覺得我在說一些很顯而易見的事情。

Tucker:你說得確實是一些顯而易見的事情。這些話也會非常不受歡迎。

Elon:是的,如果這真的發生了,我可能需要一個相當大的安保團隊,因爲真的有人可能會從郵局過來找我麻煩。

Tucker:但在此期間,你有一個名爲AmericaPAC的組織,對吧?它是在鼓勵人們在接下來的一個月裡投票。我這樣總結對嗎?

Elon:是的,我創立AmericaPAC的目的是支持我所信仰的核心價值觀,這些價值觀是非常顯而易見的中間派立場,比如:我們希望美國有安全的城市、穩固的邊界和合理的開支。這些主張有哪裡偏右嗎?我們希望擁有自我保護的權利。我們應該尊重憲法,而不是試圖破壞憲法。憲法之所以存在是有原因的。另外,我們應該停止法律戰(lawfare)。我把這些都列在了AmericaPAC的網站上。人們可以去看看這個網站,看看是否有什麼需要修改或不認同的目標。但我認爲這些目標是合理的,尤其是維護言論自由的權利,這屬於第一修正案的範疇。如果沒有言論自由,就沒有民主,因爲人們無法做出重要的投票選擇。這就是我的“有爭議”觀點。而且我不認爲任何一方政黨是完美的。

當然,目前我更傾向於共和黨,而不是民主黨。但這並不意味着我認爲共和黨是完美的或者沒有問題的。畢竟我們只有兩個候選人可以選擇。從整體來看,投票給特朗普是個不言而喻的選擇。如果我們不投票給特朗普,我們將面臨失去民主的嚴重風險,變成一個一黨制國家,就像加州那樣,那裡沒有真正的選舉,只有民主黨內的初選。

原文:Musk's BRUTALLY Honest Interview SHOCKS Tucker Carlson (2024)

編譯:Grace Bo