黃仁勳在AI界春晚GTC2024的主旨演講: 精華及全文(附視頻)

文:天空之城·城主 (未經授權請勿轉載)

萬衆期待的AI界科技界春晚-NVIDIA GTC 2024大會今天正式開幕。這不僅是一場面向開發者的盛會, 更是NVIDIA創始人黃仁勳獨領風騷、引領業界方向的重要舞臺。

以下和大家分享這一次黃教主大會主旨演講中的精彩內容, 附上視頻完整版及書面文字版,方便大家深入瞭解。

視頻完整版的B站傳送門:

【【精校】Nvidia GTC2024 黃仁勳主旨演講 2024.3.19【中英】-嗶哩嗶哩】 https://b23.tv/eEDeOq4

此次GTC大會聚集了來自氣候科技、無線電科學等不同領域的研究人員,他們正探索如何利用AI、機器人技術控制下一代6G無線電、自動駕駛汽車等。大會還邀請了衆多公司代表,他們將運用加速計算解決普通計算機無法應對的難題,應用領域涵蓋生命科學、醫療健康、基因組學、零售、物流、製造、工業等。

NVIDIA的發展歷程始於1993年。2006年,革命性的CUDA計算模型誕生,成爲里程碑。2012年,AI首次接觸CUDA,標誌着AlexNet的出現。2016年,NVIDIA發明了DGX-1超級計算機,8個GPU實現170 teraflops計算能力。從2017年Transformer到2022年ChatGPT,這些技術點燃全球想象力,彰顯AI非凡潛力。2023年,生成式AI嶄露頭角,開啓全新產業征程。

數據中心正成爲NVIDIA生成Token、浮點數的重要基地。就像工業革命時期的發電機創造了電力,NVIDIA如今正在AI工廠中用GPU生成極其有價值的新型電子Token。以AI爲核心的新產業正在形成。

NVIDIA的靈魂在於計算機圖形學、物理、AI的交叉融合,這些在Omniverse模擬的虛擬世界中交匯。今天展示的內容皆爲模擬而非動畫,它之所以美,源於其背後的物理學規律,就像真實的世界一樣。更神奇的是,這些動畫由機器人、AI創作。觀衆將欣賞到前所未有的AI自制音樂會。

加速計算已到達臨界點,通用計算逐漸失去動力。加速計算在性價比上遠超通用計算,幾乎遍佈所涉足的每個行業。它的影響不侷限於單一行業。各行業正在利用數字孿生技術,實現全流程數字化、高保真模擬。這意味着要大幅提升計算規模。合作伙伴正攜手NVIDIA,共同推動整個生態系統進入加速計算時代。

加速計算的另一大優勢在於,當整個基礎設施與GPU耦合時,便可輕鬆實現AI生成能力。NVIDIA已與一些重要合作伙伴建立了深度關係。ANSYS、新思科技、Cadence這些頂級公司,正在利用NVIDIA GPU加速系統的巨大安裝基礎,爲最終用戶、系統製造商、CSP創造巨大機遇與客戶需求。

Blackwell是NVIDIA推出的全新GPU平臺,將涵蓋與Hopper兼容的普通系統和與Grace CPU連接的專用系統。Blackwell提供了前所未有的算力,有望突破物理極限,爲互聯網產業注入新動力。

在處理海量數據和複雜計算時,精確性和範圍至關重要。配備第五代NV Link的全新Transformer引擎速度驚人。在多GPU環境中,信息同步與更新必不可少。

新型超算的高速運轉離不開早期問題檢測和替換機制。同時,數據加密對價值數億美元的AI模型和代碼至關重要。高速壓縮引擎可將數據高效導入導出,速度提升20倍。Nvidia必須全力保留這些功能,因爲這些超算的投資和能力都十分驚人。

全新的FP8格式讓內存可容納更多參數,大幅提升計算速度。生成式AI作爲一種全新計算範式正在興起。NVLink交換芯片實現所有GPU同時全速通信,彷彿成爲一個巨無霸GPU。直接驅動銅技術的突破讓系統更加經濟實惠。

訓練一個1.8萬億參數的GPT模型,傳統方法可能需要8000個GPU、15MW電力,歷時90天。而Blackwell只需2000個GPU,功耗4MW。

NVIDIA GPU有一半時間運行在雲端,專注於生成Token,如Copilot、ChatGPT等。龐大的語言模型需要後臺超算的支持。要在衆多GPU中高效分配任務,CUDA和其豐富生態系統不可或缺。Blackwell驚人的推理能力是Hopper的30倍,有望成爲未來生成式AI的核心引擎。這些AI工廠旨在產生智慧而非電力。AWS、GCP、Oracle、微軟紛紛爲Blackwell做好準備。

數字孿生技術已在各行各業大放異彩。Wistron利用Omniverse SDK定製軟件,將NVIDIA DGX和HGX工廠實現數字孿生,大幅縮短調試周期。NVIDIA還運用生成式AI預測天氣。CoreDev可通過超高分辨率AI預測嚴重風暴,如颱風燦都。這項服務作爲NVIDIA Earth 2的一部分,將惠及全球氣象機構。NVIDIA在醫療領域也碩果累累,涵蓋醫學成像、基因測序和計算化學等。

NVIDIA推出BioNeMo NIMS、NVIDIA推理微服務(NIMS)等新品,可在幾分鐘內生成候選分子。微服務包含三大支柱:AI模型、運行AI的工具;AI技術;基礎設施用於AI微調和部署,可在DGX雲等平臺上實現。這類似於臺積電代工芯片的模式,因此被稱爲AI代工廠。

用戶可利用這些服務處理各類結構化和非結構化數據,編碼存儲於向量數據庫中,成爲企業專屬智慧。通過與智能數據庫交互,可輕鬆獲取所需信息。NVIDIA AI Foundry正攜手SAP、ServiceNow等巨頭,幫助他們開發自有數據和工具,在聊天機器人中打造企業級Copilot。

要讓AI理解物理世界,需要AI計算機、監測分析計算機和執行任務的機器人三位一體。這就像語言模型,只不過我們要構建的是端到端的機器人系統。

通過強化學習,機器人可適應物理定律。Omniverse提供模擬環境,教會機器人如何成爲機器人。OVX託管於Azure。未來的倉儲、工廠都將由軟件定義,機器人自主協同工作。數字孿生是機器人系統CICD的關鍵。西門子正構建工業元宇宙,日產已將Omniverse整合到工作流。

所有移動設備都將是機器人,包括自動駕駛汽車。從計算機視覺到AI控制,還有很多工作要做。

最後,黃仁勳總結了5大要點:新工業革命、Blackwell平臺、NIMS、NEMO和NVIDIA AI Foundry、Omniverse和ISAAC機器人。這些將重塑產業格局,開啓AI新紀元。

==附:演講之天空之城書面全文版==

歡迎來到GTC。我希望你意識到這不是一場音樂會,你已到達開發者大會。這裡將會有很多科學描述,包括算法、計算機體系結構、數學。

我突然感覺到房間裡有很重的重量,幾乎就像你來錯地方了。世界上沒有哪個會議,會有更多的研究人員聚集,他們來自如此不同的科學領域,包括氣候技術、無線電科學,他們試圖找出如何使用AI機器人控制MIMO下一代6G無線電、機器人、自動駕駛汽車,甚至人工智能。即使是人工智能,我也突然感覺到一種如釋重負的感覺。

此外,本次會議也有代表參加,他們來自一些令人驚歎的公司。這份名單中,這些不是與會者,這些是主持人,令人驚奇的是這個。如果你帶走我所有的朋友,親密的朋友邁克爾·戴爾就坐在那兒。在IT行業,所有和我一起在這個行業長大的朋友,如果你把那個名單拿走,這就是令人驚奇的事情。

這些非IT行業的主講者使用加速計算來解決普通計算機無法解決的問題。它在生命科學、醫療保健、基因組學領域都有代表性。運輸當然是零售、物流、製造、工業。所代表的行業範圍確實令人驚歎。您來這裡不僅僅是爲了參加,您來這裡是爲了談論您的研究。今天這個房間裡有代表世界上100萬億美元的行業的代表,這絕對是驚人的。

絕對有事情發生,有事情發生。這個行業正在發生轉變,不僅僅是我們的行業,因爲計算機行業,計算機是當今社會最重要的工具。計算領域的根本性變革影響着每個行業。但我們是如何開始的呢?我們是怎麼來到這裡的?

我爲你做了一個小漫畫,從字面上看是我畫的,在一頁中這是NVIDIA的旅程。1993年開始,這可能是談話的其餘部分。1993年,這是我們的旅程,我們於1993年成立,一路上發生了幾件重要的事件。我想強調幾個關鍵的時間節點。首先是2006年,CUDA的誕生。事實證明,這是一種革命性的計算模型。當時,我們預見到它將引發一場革命,並在一夜之間嶄露頭角。如今,近20年過去了,我們看到了這一預言的實現。

然後是2012年,AlexNet的出現,標誌着人工智能與CUDA的首次接觸。再後來是2016年,我們認識到這種計算模型的重要性,於是發明了一種全新類型的計算機,我們將其稱爲DGX-1。這臺超級計算機具有170 teraflops的計算能力,8個GPU連接在一起。我親手將第一臺DGX-1交付給了一家位於舊金山的初創公司,名爲OpenAI。DGX-1是世界上第一臺AI超級計算機,記住,它的計算能力達到了170 teraflops。

從2017年的Transformer到2022年的ChatGPT,這些技術激發了全世界的想象力,讓人們認識到人工智能的重要性和能力。到了2023年,生成式人工智能出現了,一個新的行業開始了。爲什麼我說這是一個新的行業呢?因爲這種軟件以前並不存在。我們現在正在用計算機編寫軟件,生產出以前從未存在過的軟件。這是一個全新的類別,它從無到有地佔據了市場份額。這是一個全新的類別,以及一種全新的製作軟件的方式,與我們以前做過的任何事情都不一樣。

在數據中心,我們生成Token,產生浮點數,規模非常大。這就像在最後一次工業革命中,當人們意識到可以建立工廠,對其施加能量,這種看不見的、有價值的東西,叫做電,就出現了交流發電機。100年後,200年後,我們現在正在創建新型電子Token,使用我們稱爲工廠的基礎設施——人工智能工廠來生成這種新的、極其有價值的東西。一個叫做人工智能的新產業已經出現。

我們將討論這個新行業的很多事情,包括接下來如何進行計算,您因這個新行業而構建的軟件類型,新軟件,您會如何看待這個新軟件,以及這個新興行業的應用情況。然後,我們也許會探討接下來會發生什麼,我們今天如何開始爲接下來的事情做準備。

在我開始之前,我想向您展示NVIDIA的靈魂。我們公司的靈魂位於計算機圖形學、物理和人工智能的交叉點。所有這些都在計算機內部交叉,在Omniverse虛擬世界模擬中。我們今天要向您展示的所有內容,都是模擬,而非動畫。它之所以美麗,是因爲它是物理學。世界是美麗的。這太神奇了,因爲它是用機器人制作的動畫,是用人工智能製作的動畫。您一整天都會看到的東西,都是在Omniverse中完全模擬生成的。您將要享受的是世界上第一場音樂會,一切都是自制的。您將要觀看一些家庭視頻,所以請坐下來盡情享受。

我愛英偉達。加速計算已達到臨界點。通用計算已經失去動力。我們需要另一種計算方式,這樣我們就可以繼續擴展,這樣我們就可以繼續降低計算成本,這樣我們就可以繼續消耗越來越多的計算。我們正在追求的是可持續性。加速計算已經在與通用計算的比較中展現出顯著的優勢。在我所參與的每一個行業中,我都有大量的案例可以向您展示。其影響力巨大,而且在任何行業中,它的重要性都超過了我們自己的行業。這些行業都在使用模擬工具來創建產品。這並不是爲了降低計算成本,而是爲了擴大計算規模。我們希望能夠進行模擬,我們所做的整個產品都是完全高保真、完全數字化的,這就是我們所說的數字孿生。我們希望設計它、構建它、模擬它、操作它,完全數字化。爲了實現這一目標,我們需要加速整個行業的發展。今天,我想宣佈,我們有一些合作伙伴正在加入我們的旅程,他們將加速他們的整個生態系統,以便我們可以將世界帶入加速計算的時代。

但是,加速計算還有一個好處。當你的計算速度加快時,你的基礎設施將與GPU耦合。當這種情況發生時,生成人工智能的基礎設施將完全相同。因此,我很高興地宣佈,我們已經與一些非常重要的合作伙伴建立了關係。ANSYS是世界上一些最重要的公司,他們對世界製造的產品進行工程模擬。我們正在與他們合作,加速ANSYS生態系統,將ANSYS連接到Omniverse數字孿生。令人驚歎的是,NVIDIA GPU加速系統的安裝基礎已經遍佈世界各地、每個雲、每個系統。因此,他們加速的應用程序將有一個巨大的安裝基礎可供服務。最終用戶將擁有令人驚歎的應用程序,當然,系統製造商和CSP也會有巨大的客戶需求。

新思科技(Synopsys)是NVIDIA的第一個軟件合作伙伴,他們在我們公司成立的第一天就參與其中。新思科技通過高水平設計徹底改變了芯片行業。我們將採取行動來加速Synopsys的發展。我們正在加速計算光刻,這是一項鮮爲人知但極其重要的應用。爲了製作芯片,我們必須將光刻技術推向極限。NVIDIA創建了一個領域特定庫,這加速了計算光刻。令人難以置信的是,一旦我們能夠加速並由軟件定義臺積電的全部,臺積電今天宣佈他們將使用NVIDIA Qlitho投入生產。一旦軟件定義並加速,下一步就是將生成式人工智能應用於半導體制造的未來,進一步推動幾何學的發展。

Cadence構建了世界上重要的EDA和SDA工具。我們也在使用Cadence。這三個公司,Ansys、Synopsys、Cadence,我們基本上是在構建NVIDIA。我們共同致力於加速Cadence。他們還利用NVIDIA GPU構建超級計算機,以便爲他們的客戶提供服務。這樣,他們就可以進行流體動力學模擬,基本上是一百、一千倍的規模,實時風洞。Cadence Millennium內置NVIDIA GPU的超級計算機是一家構建超級計算機的軟件公司,我很高興看到這一點。我們正在一起構建Cadence Copilot。想象一下有一天,當Cadence可以成爲Synopsys、Ansys等工具提供商時,將爲您提供人工智能Copilot。這樣我們就有成千上萬的Copilot助理幫助我們設計芯片、設計系統。我們還將把Cadence數字孿生平臺連接到Omniverse。

正如您在這裡看到的趨勢,我們正在加速世界上的CAE、EDA和SDA,以便我們能夠在數字孿生中創造我們的未來。我們將把它們全部連接到Omniverse,這是未來數字孿生的基本操作系統。受益於規模巨大的行業之一,你們都非常瞭解這一大型語言模型。基本上,自從Transformer被髮明之後,我們能夠以令人難以置信的速度擴展大型語言模型,每六個月有效翻倍。

你可能會問,現在怎麼可能每六個月翻一番呢?我們已經發展了這個行業,到目前爲止,我們已經增加了計算需求。原因很簡單。如果你將模型的大小加倍,你的大腦的大小就會加倍,你需要兩倍的信息來填充它。因此,每次將參數數量加倍時,您還必須適當增加訓練Token數量。這兩個數字的組合,成爲你必須支持的計算規模。

最新、最先進的OpenAI模型,大約有1.8萬億個參數。1.8 萬億個參數,需要幾萬億Token去訓練。所以,幾萬億個參數大約是幾萬億個Token,當你將它們兩者相乘時,大約30、40、500億,四萬億每秒浮點運算。現在我們只需要做一些CO數學就可以了。所以你有300億千萬億,一萬億就像善待動物組織(PETA)。因此,如果你有一個PETA flop GPU,你將需要300億秒來進行計算和訓練該模型,300億秒大約需要1,000年。

一千年,這很值得。我想早點做,但這是值得的。當大多數人告訴我做一件事要花多長時間時,我的答案通常是20年,這是值得的。但我們可以下週做嗎?等了1000年,我們需要的是更大的GPU。

我們需要更大的GPU,我們很早就認識到了這一點。我們意識到答案是將一大堆GPU放在一起,當然一路上創新一大堆東西,比如發明張量核心,推進NVLink,以便我們能夠創造出實質上巨大的東西。GPU並通過來自Mellanox InfiniBand公司的令人驚歎的網絡將它們連接在一起,以便我們可以創建這些巨型系統。

所以,DGX1是我們的第一個版本,但它不是最後一個版本,我們一直在構建超級計算機。2021年,我們有Selene,大約4,500個GPU。然後進入2023年,我們建造了世界上最大的人工智能超級計算機之一,它剛剛上線,名爲埃歐斯。

當我們正在構建這些東西時,我們正在努力幫助世界建造這些東西。爲了幫助世界構建這些東西,我們必須首先構建它們。我們製造芯片、系統、網絡、執行此操作所需的所有軟件。你應該看到這些系統,想象一下編寫一個在整個系統上運行並分佈計算的軟件。

數千個GPU,但內部是數千個較小的GPU,數以百萬計的GPU,在所有這些之間分配工作並平衡工作負載,以便您可以獲得最大的能源效率,最佳的計算時間,降低您的成本等等。這種根本性創新,是什麼讓我們來到這裡。

我們到了,正如我們看到的奇蹟,ChatGPT的出現,我們也意識到了,我們還有很長的路要走。我們需要更大的模型,我們將使用多模態數據來訓練它,而不僅僅是互聯網上的文本,我們將使用文本、圖像、圖形和圖表來訓練它。正如我們所學的那樣,將會有大量觀看視頻,以便這些模型。我們可以以物理學爲基礎來理解,爲什麼我們的手臂不能穿過牆壁。因此,這些模型具有常識。他們通過觀看世界上的大量視頻和各種語言的結合來學習。當我們嘗試學習時,他們會像我們一樣使用合成數據生成等工具。我們可能會用我們的想象力來模擬它將如何結束,就像我在準備這個主題演講時所做的那樣,我一直在模擬它的過程。我希望事情會成功,我腦子裡也有這個想法。

當我正在模擬這個主題演講的結果時,有人確實提到了另一位表演者。她的表演完全是在跑步機上進行的,這樣她就能以飽滿的能量來完成任務。我沒有那樣做。如果我在大約10分鐘內聽到一點風聲,你就知道發生了什麼。

那麼我們在哪裡?我們坐在這裡使用合成數據生成,我們將使用強化學習,我們將在我們的腦海中練習。我們將讓人工智能與人工智能一起工作,就像學生、老師和辯手一樣互相訓練。所有這些都將增加我們模型的大小,這將增加我們擁有的數據量,並且我們將不得不構建更大的模型。GPU Hopper非常棒,但我們需要更大的GPU。

女士們、先生們,我想向您介紹一下,至極大的GPU,以大衛·Blackwell的名字命名。他是一位數學家,博弈論學家。我們認爲這是一個完美的名字。Blackwell,女士們、先生們,你們會喜歡這個。Blackwell不是芯片,Blackwell是一個平臺的名稱。人們認爲我們製造GPU,我們確實這麼做了,但GPU的外觀已不再像以前那樣了。如果你願意的話,這是Blackwell系統的核心。公司內部不叫Blackwell,只是一個數字。

這是Blackwell,坐在旁邊的是當今世界上生產的最先進的GPU,這是Hopper。Hopper改變了世界,這是Blackwell。沒關係,Hopper,你很不錯。2080億個晶體管,所以你可以看到,我可以看到,兩個芯片之間有一條小線,這是第一次兩個芯片如此鄰接在一起,以這樣的方式,兩個骰子認爲這是一個芯片。每秒10TB之間有10TB的數據,因此Blackwell芯片的兩側不知道它們在哪一側,沒有內存局部性問題,沒有緩存問題。這只是一塊巨型芯片,所以當我們被告知Blackwell的野心超出了物理學的極限時,工程師說那又怎樣。這就是發生的事情,這就是Blackwell。

芯片及其進入兩種類型的系統:第一種。形狀適合,功能與Hopper兼容,所以你在Hopper上滑動,然後你推入Blackwell,這就是爲什麼坡道的挑戰之一將如此高效。世界各地都有安裝Hopper,它們可能是你知道的相同的基礎設施,相同的設計。電源、電力、熱量、軟件相同,將其推回原處,所以這是針對當前HGX配置的Hopper版本,這就是第二個Hopper的樣子。現在這是一個原型板。

第二個問題是,隨着技術的發展,產品的價格會降低,這對所有消費者來說都是好消息。然而,當前的產品價格相當高,這是因爲它是一種創新的啓動產品。

這款產品將以一種新的生產方式進入市場。它配備了兩個Blackwell芯片和四個Blackwell芯片,這些芯片都連接到Grace CPU上。Grace CPU具有超快的芯片到芯片鏈接,這是一項令人驚奇的技術。這臺計算機是同類產品中的第一臺,能夠進行大量的計算。

這款產品的體積小巧,內存充足,所有的組件都能夠協同工作,就像一個幸福的大家庭一樣,共同開發應用程序,保證了產品的連貫性。你可能會看到這款產品的數字規格,包括大量的太字節,這是一項令人驚歎的技術。

MV鏈接位於產品的頂部,而PCI Express位於底部。至於CPU芯片到芯片的鏈接,它可能在你的左邊,也可能在我的左邊,這取決於我們的位置。我們正在努力解決這個問題,但我認爲這並不重要。

我們希望能夠插入更多的功能,這就是Grace Blackwell系統。但我們還有更多的計劃。所有的規格都很棒,但我們需要開發更多新功能,以突破物理的極限。

我們希望能夠不斷提高性能,因此我們發明了第二代Transformer引擎。這款引擎具有動態和自動的能力,可以重新調整和重塑數字格式,即使精度較低,只要它能記住,人工智能就是關於概率的。

你可能會看到一些數字,比如1.7乘以1.4等等,這些數字是否有意義,取決於數學的精度和範圍。在處理數據的特定階段,保持精度和範圍的能力是非常重要的。這不僅僅是因爲我們設計了一個更小的鋁,它並不完全是世界,它並不那麼簡單。你必須弄清楚在整個計算過程中何時可以使用它。

我們有數千個GPU,它們可以連續運行數週,你希望確保訓練工作能夠收斂。因此,我們的新Transformer引擎配備了第五代MV鏈接。它的速度是Hopper的兩倍,這非常重要,因爲它需要在網絡中進行計算。

當你有這麼多不同的GPU一起工作時,我們必須彼此共享我們的信息,我們必須彼此同步和更新。每隔一段時間,我們就必須減少部分產品,然後重新廣播部分產品,其中一些部分產品返回給其他人。所以有很多所謂的全部減少和全部到所有所有收集都是這的一部分同步和集體領域,這樣我們就可以讓GPU相互協作,具有非常快的鏈接,並且能夠在網絡中正確進行數學運算,使我們能夠從本質上放大甚至更進一步。

因此,即使它的速度是每秒1.8TB,它實際上也高於這個數字,所以可能性是Hopper的很多倍。超級計算機在In上運行數週的時間大約爲零,其原因是因爲有太多組件同時工作。據統計,它們連續工作的概率非常低,因此我們需要確保只要有一口井,我們就儘可能頻繁地檢查點並重新啓動。然而,如果我們有能力盡早檢測到芯片或筆記本的問題,我們就可以將其退役,甚至可能將其替換爲另一個處理器。這種能力可以保持超級計算機的高利用率,特別是當你剛剛花費了20億美元建造它時,這是非常重要的。因此,我們在Ras引擎中加入了一個具有可靠性的引擎。

我們的系統測試中,每一個門的每一個內存位都會進行百分百的自檢。這包括在Blackwell芯片上以及所有連接到的內存上。這幾乎就像我們爲每個芯片配備了自己的高級測試儀一樣,我們用它來測試我們的芯片。這是我們第一次對它的安全人工智能感到非常興奮。只有在今天的這次會議上,我們才爲Ras引擎鼓掌。

顯然,保護你剛剛花費了數億美元創建的人工智能和代碼是非常重要的。這個人工智能的智能被編碼在參數中。你需要確保一方面你不會丟失它,另一方面它不會被污染。因此,我們現在有能力對數據進行加密,無論是在休息時,還是在運輸途中,甚至在計算時,它都是加密的。所以我們現在有能力加密和傳輸數據,當我們計算它時,它是在可信的環境中,最後一件事是解壓縮。

當計算速度如此之快時,將數據移入和移出這些節點變得非常重要。因此,我們安裝了高線速壓縮引擎,有效地將數據移入和移出這些計算機的速度提高了20倍。這些計算機非常強大,而且投資如此之大,我們最不想做的就是讓它們閒置。因此,所有這些功能都應該保留。

總的來說,與Hopper相比,對於每個芯片的訓練來說,它是fp8性能的兩倍半。它也有這種稱爲fp6的新格式,因此即使計算速度是相同的,由於內存而放大的帶寬,你可以在內存中存儲的參數數量現在已放大。Fp4有效地使吞吐量加倍,這對於推理至關重要。

變得非常清楚的一件事是,每當你使用另一側帶有人工智能的計算機時,無論是與聊天機器人聊天,提出問題,審查或製作圖像,都要記住後面是一個GPU生成token。有些人稱之爲推理,但更合適的是一代。

過去計算的方式是檢索,你會抓住你的手機,觸摸一些東西,一些信號基本上會消失,一封電子郵件會發送到某個存儲,某處有預先錄製的內容,有人寫了一個故事,有人制作了一張圖像,或者有人錄製了一個內容。視頻。然後,這些預先錄製的內容會流回手機並以基於推薦系統的方式重新組合,向你呈現信息。

然而,未來你就知道了,絕大多數內容將不會被檢索。原因是因爲這是由不瞭解上下文的人預先錄製的。這就是我們必須檢索這麼多內容的原因。如果你可以與一個人工智能一起工作,它可以理解你是誰,你出於什麼原因獲取這些信息,並以你喜歡的方式爲你生成信息。我們節省的能源量、我們節省的網絡帶寬量、我們節省的時間浪費量,將是巨大的。

未來是生成式的,這就是我們稱之爲生成式人工智能的原因,這就是爲什麼這是一個全新的行業,我們的計算方式根本不同。我們創建了一個處理器,面向生成人工智能時代。它最重要的部分之一是內容Token生成,我們稱之爲它,這種格式是fp4。這涉及到大量的計算。Token生成的能力是Hopper推理能力的五倍,這看起來已經足夠了。但是,爲什麼我們要止步於此呢?答案是,這還不夠。我將向您解釋原因。

我們希望有一個更大的GPU,甚至比現在的更大。我們決定擴展它,但在此之前,讓我告訴您我們在過去的八年裡是如何擴展我們的計算能力的。在這八年裡,我們的計算能力增加了一千倍。還記得摩爾定律的美好舊時光嗎?那時,我們的計算能力每五年增加十倍,每十年增加一百倍。在個人電腦革命的鼎盛時期,我們的計算能力每十年增加一百倍。然而,在過去的八年裡,我們的計算能力每十年增加了一千倍,而且我們還有兩年的時間。

我們推進計算的速度是驚人的,但仍然不夠快,所以我們建造了另一個芯片。這個芯片是一個令人難以置信的芯片,我們稱之爲MV鏈接開關。它有五百億個晶體管,幾乎有Hopper大小。這個開關芯片本身有四個MV鏈接,每個鏈接每秒可以傳輸1.8TB的數據。正如我提到的,它具有計算功能。

這個芯片的作用是什麼呢?如果我們製造這樣的芯片,我們可以讓每個GPU同時與其他每個GPU全速通信。這聽起來似乎有些瘋狂,甚至沒有意義。但是,如果你能找到一種方法來實現這一點,並建立一個系統來實現這一點,那麼這將是非常划算的。如果我們可以通過一致的鏈路將所有這些GPU連接起來,使它們實際上就是一個巨大的GPU,那將是多麼令人難以置信啊。

爲了使其具有成本效益,我們必須直接驅動銅,這是我們的一項偉大發明。這樣,我們就可以直接驅動到銅,結果是,您可以構建一個如下所示的系統。

現在,這個系統看起來有些瘋狂。這是一個DGX,這就是DGX現在的樣子。還記得六年前的樣子嗎?它相當重,但我能夠舉起它。我交付了第一個DGX,打開了AI的大門。研究人員,你知道這些照片是在互聯網上的。我們都親筆簽名了。如果你來我的辦公室,你會看到它有親筆簽名,那裡真的很漂亮。但你可以舉起這個DGX。

順便說一句,那個DGX的浮點運算能力是170萬億次。如果您不熟悉編號系統,那是0.17萬億次浮點運算。所以這是720。我交付給Open AI的第一個是0.17。你可以將其四捨五入到0.2,這不會有任何區別。到那時,就像哇,你知道了,30萬億次浮點運算。目前,我們已經擁有了一臺720 petaflops的機器,這幾乎等同於exaflops的訓練能力,它是世界上第一臺在一個機架中達到1 exaflops的機器。如你所知,在我們的地球上,只有兩臺能夠進行三百億次浮點運算的機器。這是一臺Exaflops級別的人工智能系統。

讓我們來看看這臺機器的背面。這就是讓這臺機器成爲可能的關鍵部分,也就是DGX的背面。這裡有一個MV鏈路脊椎,每秒可以處理130 TB的數據。這個數據傳輸速度甚至超過了互聯網的總帶寬。因此,我們基本上可以在一秒鐘內將所有內容發送給每個人。

這臺機器的背面有5000根電纜,這些中壓連接電纜總長達到了2英里。這是一項令人驚奇的技術,如果我們必須使用光學器件,我們將不得不使用收發器和重定時器,而僅這些收發器和重定時器就需要花費20,000瓦的電力。而我們只用了2千瓦的收發器就驅動了MV鏈路主幹。我們通過MV鏈路交換機完全免費完成此操作,因此我們能夠節省整個機架的20千瓦計算功率。120千瓦與20千瓦的差別是巨大的。

這臺機器是液體冷卻的,溫度約爲室溫25攝氏度。結果是,你的按摩浴缸的溫度會達到45攝氏度。所以,室溫的液體進入按摩浴缸後,每秒會輸出2升的液體。我們可以出售這些外圍設備。

有人曾經說過,你們知道你們製造GPU,我們也製造GPU。但這就是我們的GPU的樣子。對我來說,當有人說GPU時,我看到的就是這個。兩年前,當我看到GPU是HGX時,它重70磅,需要35,000個零件。而我們現在的GPU有600,000個零件,重3,000磅。這個重量有點像碳纖維的法拉利。我不知道這是否是一個有用的比較。

現在,讓我們看看這臺DGX在運行中是什麼樣子。讓我們想象一下我們如何讓它發揮作用,這意味着什麼。如果你要訓練一個擁有1.8萬億參數的GPT模型,你需要25,000安培的電力,這可能需要3到5個月的時間。如果我們用傳統的方式來做這件事,可能需要8,000個GPU並會消耗15兆瓦的電力,這需要90天,大約3個月的時間。

你知道這個突破性的人工智能模型,這顯然不像任何人想象的那麼昂貴,但它需要8,000個GPU,這仍然是一筆巨大的投資。如果你要使用Blackwell來做這件事,只需要2,000個GPU。我們使用了2000個GPU,同樣在90天內完成了任務,但令人驚奇的是,功率僅爲4兆瓦。是的,從15開始,這是正確的。我們的目標是不斷降低成本和能源消耗,因爲它們與計算相關的成本和能源是正比關係。這樣,我們就可以繼續擴展並擴大我們必須進行的計算訓練,以培養下一代模型。這就是訓練的過程。

推理或生成過程也是至關重要的一步。你可能知道,NVIDIA GPU有一半的時間都在雲中運行,這些天它被用於Token生成。它們可能在運行Copilot,或者在進行聊天,例如使用ChatGPT。當你使用這些模型時,它們正在與你交互或生成圖像、視頻、蛋白質、化學物質等。所有這些都屬於我們稱爲推理的計算類別,但推理過程非常困難。

對於大型語言模型,因爲它們非常大,所以它們不適合一個GPU。這就像Excel不適合一個GPU,或者你在日常基礎上運行的某些應用程序不適合一臺計算機,就像視頻遊戲不適合一臺計算機一樣。事實上,過去很多次,超大規模計算的許多應用程序都安裝在同一臺計算機上。現在突然之間,你正在與這個聊天機器人進行交互的推理應用程序,需要一臺超級計算機在後臺運行。這就是未來,未來是由這些聊天機器人生成的,這些聊天機器人有數萬億的Token和數萬億的參數,它們必須生成Token。

現在,從互動的角度來看,這意味着什麼呢?好吧,一個詞通常由三個Token表示。你知道,“太空是最後的疆域”,這就像80個Token一樣。我不知道這對你是否有用,你知道,溝通的藝術就是選擇好的和好的類比。是的,這個過程並不順利。我不知道他在說什麼,我從未看過《星際迷航》。所以我們在這裡嘗試生成這些Token,當你與它交互時,你希望這些Token儘可能快地返回給你,這是你可以閱讀的最快速度。因此,生成Token的能力非常重要,你必須讓這個模型在許多GPU上工作,這樣你就可以實現幾件事。一方面,你想要吞吐量,因爲吞吐量可以降低生成每個Token的總體成本,因此吞吐量決定了提供服務的成本。另一方面,你有交互率,它是每秒生成另一個Token,它與每個用戶有關,也與服務質量有關。所以,這兩個目標是相互競爭的。

我們必須找到一種方法,在所有這些不同的GPU上分配工作,並以一種能夠實現這兩個目標的方式進行操作。事實證明,搜索空間是巨大的。你知道,我告訴過你這會涉及到數學。每個人都會感到困擾。我剛纔放那張幻燈片時,聽到了一些喘息聲。所以,這個圖表中的y軸表示數據中心的吞吐量,即每秒的Token數,x軸表示用戶的交互性,即每秒的Token數。請注意,右上角是最好的,你希望交互性非常高,你希望每個用戶每秒的Token數非常高,你希望每個數據中心的每秒Token數非常高。右上角非常棒,但是很難做到這一點。我們正在尋找最好的答案,跨越每一個交點xy座標。所有這些藍點都來自於一些重新分區。在優化軟件的過程中,我們必須明確是否使用張量並行、專家並行、管道並行或數據並行和分佈。這個巨大的模型需要在所有這些不同的GPU上運行並保持所需的性能。如果沒有NVIDIA GPU的可編程性,這個探索空間將是不可能的。因此,我們可以通過CUDA,利用我們豐富的生態系統,探索這個領域並發現新的可能性。

請注意那條綠色屋頂線,它實際上證明了一些重要的事實。TP2EPADP4代表兩個張量並行,跨兩個GPU的張量並行,跨8個GPU的專家並行,跨4個GPU的數據並行。在另一端,您會看到跨4個GPU的張量並行以及跨16個GPU的專家並行。這些都是軟件分佈的不同配置,它們在不同的運行時環境中會產生不同的結果。你必須去發現那個屋頂線,這只是一個模型,這只是計算機的一種配置。想象一下,所有在世界各地創建的模型以及所有不同的系統的不同配置將可用。

現在您已經瞭解了基礎知識,讓我們看一下Blackwell的推理比較。Hopper,這是一件非凡的事情。在一代人的時間裡,我們創建了一個專爲萬億參數生成人工智能而設計的系統。Blackwell的推理能力超乎尋常,事實上,它是Hopper的大約30倍。對於大型語言模型,例如ChatGPT和其他類似的大型語言模型,藍線代表我給你的Hopper。想象一下,我們沒有改變Hopper的架構,我們只是把它變成了一個更大的芯片。

我們只使用您所知道的最新最好的技術,我們將兩個芯片連接在一起,我們得到了這個巨大的2080億參數的芯片。如果沒有其他改變,我們會如何執行,結果非常美妙。那是紫色線,但沒有那麼好。這就是fp4 Tensor核心、新Transformer引擎和非常重要的NV鏈接開關的地方。原因是因爲所有這些GPU必須共享結果,每當他們互相交流時,所有人都會聚集在一起。NV鏈接交換機的通信速度幾乎快了10倍,比我們過去使用最快的網絡所能做的要多。

Blackwell將成爲未來生成人工智能的一個令人驚歎的系統。未來的數據中心將被視爲我之前提到的人工智能工廠。在這種情況下,人工智能工廠的目標是產生智力,而不是發電。這是一種新的工業革命,是智能的產生,所以這種能力是超級重要的。Blackwell的興奮真的很令人興奮。當我們第一次開始使用漏斗進入市場時,我們有兩個好處,兩個csp加入我們共進午餐,我們很高興。所以我們有兩個客戶,現在我們有更多。對於Blackwell來說,這是令人難以置信的興奮。

還有一大堆不同的配置。當然,我向您展示了可滑入Hopper外形尺寸的配置,以便輕鬆升級。我向您展示了液體冷卻的示例,其極端版本是通過MV連接的整個機架鏈接672個GPU。我們計劃將Blackwell推向全球的人工智能公司,其中許多公司正在以各種令人驚歎的方式進行工作。每個雲服務提供商(CSP)都已經做好準備,包括所有的原始設備製造商(OEM)和原始設計製造商(ODM)。無論是區域性的還是全球的,各地的雲主權AI和電信公司都正在與Blackwell簽約,以推出這項服務。

Blackwell將是我們歷史上最成功的產品發佈,因此我迫不及待地想看到這一切。我要感謝那些加入我們的合作伙伴。亞馬遜網絡服務(AWS)正在爲Blackwell做準備,他們將使用安全的AI構建第一個圖形處理器(GPU),並正在構建一個222 exaflops的系統。當我們剛剛開始動畫數字雙胞胎時,你可能會看到所有的集羣都在下降,但實際上並非如此。

我們正在構建的數字孿生就是藝術,除了基礎設施之外,它將會有多大。我們正在與AWS一起做很多事情,我們正在加速Sage製造商人工智能,我們正在加速基岩人工智能。亞馬遜機器人正在與我們合作,在Nvidia Omniverse和Isaac Sim AWS Health上使用Nvidia Health,因此AWS已經真正傾向於加速計算。

谷歌正在爲Blackwell做準備,谷歌雲平臺(GCP)已經擁有100H 100T Force LForce的Nvidia Cuda GPUs,他們最近宣佈了運行在所有方面的Jemma模型。我們正在努力優化和加速GCP的各個方面,我們正在加速數據處理,用於數據處理,他們的數據處理引擎Vertex AI和Mujoko與Google和GCP合作,跨越一系列舉措。

Oracle正在爲Blackwell做準備,Oracle是我們的一個很好的合作伙伴,對於Nvidia DGX雲,我們也在共同努力加速對很多公司來說非常重要的事情,如Oracle數據庫。

微軟正在爲Blackwell做準備,微軟和Nvidia有廣泛的合作伙伴關係,我們正在加速Cuda加速各種服務。當你明顯地和AI聊天時,微軟Azure中的服務很可能是Nvidia在後面做推理和Token生成。我們構建了他們構建了最大的Nvidia Infiniband超級計算機,基本上是我們的數字孿生或我們的物理孿生。我們正在將Nvidia生態系統引入Azure Nvidia DGX雲到Azure Nvidia Omniverse,現在託管在Azure Nvidia Health中關心Azure,所有這一切都與微軟結構深度集成和深度連接。

整個行業都在爲Blackwell做準備,這就是我要向您展示的最多的內容。到目前爲止,您在Blackwell看到的場景是Blackwell的全保真設計,我們公司的所有東西都有數字孿生。事實上,這種數字孿生的想法正在真正傳播,它有助於幫助公司構建非常複雜的東西,完美地第一次,還有什麼比這更令人興奮的呢?

我們正在創建數字孿生,構建一臺採用數字孿生構建的計算機。讓我向您展示Wishtron正在做什麼。爲了滿足Nvidia加速計算Wishtron的需求,我們的領先製造合作伙伴之一正在使用由Omniverse SDKs和API開發的定製軟件構建Nvidia DGX和HGX工廠的數字孿生。對於他們最新的工廠,Wishtron從數字孿生開始,將他們的Multicad和過程模擬數據虛擬集成到統一視圖中。在這個物理精確的數字環境中,經過測試和優化佈局,工人的效率提高了51%。在施工過程中,我們使用Omniverse數字孿生來驗證物理構建是否與數字化計劃相匹配,以便儘早發現任何差異。這有助於避免成本高昂的變更訂單。使用數字孿生的結果令人印象深刻,它幫助Wishtron工廠的上線時間縮短了一半,只需兩個半月而不是五個月。全方位數字孿生投入運行,幫助Wishtron快速測試新佈局以適應新流程,或改進現有空間中的操作,並使用生產線上每臺機器的實時物聯網數據監控實時操作。

最終,Wishtron將端到端週期時間縮短了50%,缺陷率降低了40%。藉助nvidia ai和Omniverse,nvidia的全球合作伙伴生態系統正在構建一個加速人工智能數字化的新時代。這就是我們的方式,這就是未來的方式。當我們首先以數字方式製造所有東西,然後實際製造它時,人們問我這是如何開始的,是什麼讓我們如此興奮。

這就是那個時刻。這就是當你不排練時會發生的情況。這就是你所知道的,這是第一次接觸。在2012年,AlexNet,你把一隻貓的圖片放進這臺電腦裡,結果出來了,上面寫着“貓”。我們驚歎,這將改變一切。

你拿了一百萬個數字,跨越了RGB的三個通道。這些數字對任何人來說都毫無意義。你把它放入這個軟件中,它會壓縮它,它會在維度上減少它,它從一百萬維減少到一個向量,一個數字,三個字母。廣義上來說,你可以養貓,成爲不同的貓。你可以把它放在貓的前面和貓的後面。你看看你說的這件事,令人難以置信的是你指的是任何貓。是的,任何貓。它能夠識別所有這些貓。

我們意識到它是如何系統地做到這一點的。從結構上講,它是可擴展的。你能做多大,你想把它做多大。我們也是這樣想象的。這是一種全新的軟件編寫方式。正如你所知,今天,你可以讓你輸入單詞“cat”,出來的是一隻貓。事情卻走向了另一條路。我對嗎?難以置信,這怎麼可能,是的,你怎麼可能拿了三個字母,你從中生成了一百萬個像素,這是有道理的。這就是奇蹟。

十年後,我們真的認識了文本,我們認識了圖像,我們認識了視頻和聲音,我們不僅認識了它們,而且還理解了它們的含義。我們理解文本的含義,這就是我可以和你聊天的原因。它可以爲你總結,它理解文本。它理解的不僅僅是識別英語,它理解英語,它不只是識別像素,它理解像素,你甚至可以在兩種模式之間調節它,你可以擁有語言條件圖像,並生成各種有趣的東西。

好吧,如果你能理解這些事情,你還能理解什麼?你已經數字化了。我們從文本開始的原因,你知道圖像是因爲我們將這些數字化了,但是我們還數字化了其他什麼東西?事實證明我們數字化了很多東西,比如蛋白質、基因和腦電波。任何可以數字化的東西,只要它們的結構,我們就可以從中學習一些模式,如果我們可以從中學習模式,我們就可以理解它的含義,如果我們可以理解它的含義。我們也許有能力生成它。

因此,生成式人工智能革命就在眼前。那麼,我們還能生成什麼?我們還能學到什麼?學習是我們的一項願望。我們是否對氣候有所瞭解?我們願意瞭解極端天氣,我們願意學習。那麼,我們如何預測未來的天氣?如何在區域範圍內以足夠高的分辨率預測天氣,以便我們可以在傷害到來之前讓人們遠離傷害?

極端天氣給世界造成了1500億美元的損失,這個數字肯定還要更高。這些損失並不均勻分佈,1500億美元主要集中在世界的某些地區。對於世界上的某些人來說,我們需要適應,我們需要知道即將發生什麼。因此,我們正在創造地球2,這是地球的數字孿生,用於預測天氣。

我們已經做出了一項非凡的發明,名爲CoreDiv,它能夠使用生成式人工智能以極高的分辨率預測天氣。隨着地球氣候變化,人工智能天氣預報使我們能夠更準確地預測和跟蹤2021年超級颱風“燦圖”等嚴重風暴,該風暴對臺灣及周邊地區造成廣泛破壞。當前的人工智能預測模型可以準確預測風暴的軌跡,但它們的分辨率僅限於25公里,這可能會錯過重要細節。

NVIDIA的CoreDiv是一種革命性的新生成AI模型,經過高分辨率雷達同化碼頭天氣預報和ERA-5再分析數據的訓練,使用CoreDiv,像Chanthu這樣的極端事件可以從25公里超分辨率到2公里分辨率,其速度和能源效率是傳統天氣模型的3000倍。通過結合NVIDIA天氣預報模型ForecastNet的速度和準確性以及CoreDiv等生成式AI模型,我們可以探索數百甚至數千公里範圍的區域天氣預報,以提供清晰的圖片風暴的最好、最壞和最有可能的影響。

這些豐富的信息可以幫助最大限度地減少生命損失和財產損失。今天,CoreDiv針對臺灣進行了優化,但很快,生成式超級採樣將作爲NVIDIA Earth2推理服務的一部分提供給全球許多地區。氣象公司必須信任全球天氣預報的來源,我們正在共同努力加速他們的天氣模擬。

模擬的第一個原則基礎,但是,他們還將集成Earth2 CoreDiv,這樣他們就可以幫助企業和國家進行區域高分辨率天氣預報。因此,如果您有一些天氣預報您想知道,喜歡做,聯繫我們到氣象公司,這真的是一項令人興奮的工作。

在英偉達醫療保健領域,我們15年前就開始做這件事,對此我們感到非常非常興奮,這是一個讓我們非常非常自豪的領域。無論是醫學成像、基因測序還是計算化學,很可能NVIDIA就是其背後的計算者。我們在這方面做了很多工作。

今天我們宣佈,我們要做一些非常非常酷的事情。想象一下,所有這些正在使用的人工智能模型來生成圖像和音頻,但不僅僅是圖像和音頻。因爲它理解圖像和音頻,我們爲基因、蛋白質和氨基酸所做的所有數字化,這種數字化能力就是現在通過機器學習讓我們理解生命的語言。理解生命語言的能力,當然,我們看到了它的第一個證據,那就是阿爾法摺疊。這確實是一項了不起的成就。經過幾十年的艱苦努力,我們終於實現了世界的數字化。我們使用了各種不同的技術,如冷凍電子顯微鏡和X射線晶體學,進行重建。

在不到一年的時間裡,AlphaFold竭盡全力重建了200,000個蛋白質。至今,已經重建了2億個蛋白質,基本上包括了每一種被測序過的生物的每一種蛋白質。這是一次完全的革命。這些模型非常難以使用,對於人們來說極其難以構建。因此,我們的任務就是要構建這些模型,我們將爲世界各地的研究人員構建它們。這不會是唯一的,我們還會創建許多其他模型。接下來,我將向您展示我們將如何使用這些模型。

新藥的虛擬篩選是一個計算上難以解決的問題。現有技術只能掃描數十億種化合物,並且需要在數千個標準計算節點上運行數天才能識別新的候選藥物。NVIDIA BioNemo NIMS啓用了新的生成篩選範例。通過使用NIMS進行蛋白質結構預測,通過MolNIM進行AlphaFold分子生成,並與DiffDock對接,我們現在可以在幾分鐘內生成和篩選候選分子。MolNIM可以連接到自定義應用程序,迭代地引導生成過程,優化所需的特性。

這些應用程序可以使用BioNemo微服務定義或從頭開始構建。在這裡,基於物理的模擬優化分子與目標蛋白結合的能力,同時優化其他有利的分子特性。MolNIM生成的高質量藥物樣藥物與靶標結合且可合成的分子,將轉化爲更快開發成功藥物的更高可能性。

BioNemo正在啓用藥物發現的新範例,通過NIMS提供可組合的按需微服務,構建強大的藥物發現工作流程,如從頭蛋白質設計或用於虛擬篩選的引導分子生成。BioNemo NIMS正在幫助研究人員和開發人員重新發明計算藥物設計。NVIDIA MOLNIM、MolNIM、CoreDiff以及一大堆其他模型,包括計算機視覺模型、機器人模型,甚至一些非常優秀的開源語言模型,都是開創性的。

然而,對於企業來說,這些模型很難使用。如何使用它們?如何將它們引入您的公司並將其集成到您的工作流程中?如何打包並運行它?請記住,我剛纔說過,這個推論是一個非凡的計算問題。您將如何對每個模型進行優化,並將運行該超級計算機所需的計算堆棧組合在一起,以便您可以在您的公司中運行這些模型?

因此,我們有一個好主意。我們將發明一種新方法,爲您發明一種新方法,接收並操作軟件。這個軟件基本自帶,在數字盒子中我們稱其爲容器。我們將其稱爲NVIDIA推理微服務,簡稱NIM。讓我向你解釋一下它是什麼。

NIM是一個預先訓練的模型,所以它非常聰明。它經過打包和優化,可在NVIDIA的安裝基礎上運行,該安裝基礎非常非常大,裡面的內容令人難以置信。您擁有所有這些經過預先訓練的最先進的開源模型。它們可以是開源的,也可以來自我們的合作伙伴之一,也可以由我們創建,例如NVIDIA Moment。它與它的所有依賴項一起打包,因此CUDA,正確的版本CUDNN,正確的版本TensorRT,LLM,分佈在多個GPU上。Trident推理服務器是一個全面優化並打包的系統。其優化程度取決於您是否擁有單個GPU、多GPU或多節點GPU。此外,它還與易用的API相連。

那麼,什麼是AI API呢?AI API是一個接口,您只需與之交談即可。因此,這是未來的一種軟件,它具有一個非常簡單的API,這個API被稱爲人類。這些軟件包中的優秀軟件將被優化和打包。我們會將其放在網站上供您下載,您可以隨身攜帶,可以在任何雲中運行它,也可以在自己的數據中心運行它。如果合適,您甚至可以在工作站中運行它。您只需訪問AI.NVIDIA.com,我們稱之爲NVIDIA Inference Microservice,但在公司內部,我們都稱之爲NIM。

想象一下,有一天,將會有這些聊天機器人之一,這些聊天機器人將位於NIM中。您將組裝一大堆聊天機器人,這就是未來軟件構建的方式。您不太可能從頭開始編寫它,或者編寫一大堆Python代碼或類似的東西,您很可能會組建一個人工智能團隊。可能會有一個超級人工智能,它將接受您賦予它的任務並將其分解爲執行計劃。部分執行計劃可以移交給另一個NIM。NIM可能會理解SAP,SAP的語言是ABAP,它可能理解ServiceNow,並從他們的平臺檢索一些信息。然後它可能會將結果交給另一個NIM,後者會對其進行一些計算,也許這是一個優化軟件,一個組合優化算法,也許只是一些基本的計算器,也許這就是熊貓。對它進行一些數值分析,然後它會返回答案。它會與其他人的結合起來,因爲它已經被呈現出來,這就是正確的答案應該是什麼樣的,它知道生產的正確答案是什麼,並將其呈現給您。

我們每天都可以得到一份報告,這與構建計劃或一些預測或一些客戶警報或一些錯誤數據庫或其他任何東西有關,我們可以使用所有這些NIM來組裝它,因爲這些NIM已打包並準備好在您的系統上工作,只要您的數據中心或雲端有視頻GPU,這些NIM將作爲一個團隊一起工作並做出驚人的事情。因此,我們認爲這是一個好主意,我們要去這麼做。

因此,NVIDIA在我們公司的各個角落都運行着NIM。聊天機器人遍佈各地,最重要的聊天機器人之一當然是芯片設計師聊天機器人。您可能不會驚訝我們非常關心構建芯片。所以我們想要構建聊天機器人人工智能Copilot。這是我們工程師的共同設計師,所以這就是我們這樣做的方式,所以我們給自己設計了一輛Llama 2,這是一輛70b,你知道它封裝在NIM中,我們問它你知道什麼是CTL。事實證明,CTL是一個內部程序,它有一種內部專有語言,但它認爲CTL是一種組合時序邏輯,因此它描述了您知道CTL的常規知識,但這對我們來說不是很有用。所以我們給了它一大堆新的例子。員工入職員工。

您問我是否知道,我感謝您的提問。這是一個誤解。然後我們向他們展示,這就是CTL,沒有問題。所以這就是NVIDIA的CTL,以及您可以看到的CTL。您知道,CTL代表計算跟蹤庫,這讓您知道我們一直在跟蹤計算週期。它寫了“程序真是太棒了”。

這樣,我們的芯片設計人員的生產力就可以提高。這就是您可以使用NIM做的第一件事。您可以使用它進行定製。我們有一項名爲NEMO微服務的服務,可以幫助您管理數據,準備數據,以便您可以進行教學在這個人工智能上。您可以對它們進行微調,然後您可以對其進行防護,您可以評估答案,根據其他示例評估其性能,這就是所謂的NEMO。

現在出現的微服務是三個要素,我們正在做的事情的三個支柱。第一個支柱當然是發明技術。AI模型和運行AI模型,然後再爲您打包。是創建工具來幫助您修改它,其次是擁有人工智能技術,第二是幫助您修改它,第三是供您微調它的基礎設施。如果您喜歡部署它,您可以將其部署在我們稱爲DGX雲的基礎設施上,或者您可以使用它,將其部署在本地,您可以將其部署在任何您喜歡的地方。

一旦您開發了它,您就可以把它帶到任何地方。所以我們是一家有效的人工智能代工廠。我們將爲您和人工智能行業做的事情,就像臺積電爲我們製造芯片所做的那樣。因此,我們帶着我們的偉大想法去臺積電,他們製造,我們隨身攜帶。所以這裡完全相同的事情,人工智能鑄造廠和三大支柱是NEMS,NEMO微服務和DGX雲。

您可以做的另一件事是教導NEM要做的就是了解您的專有信息。請記住,在我們公司內部,我們的絕大多數數據並不在雲中,而是在我們公司內部。您知道它一直坐在那裡,並且一直在使用。天哪,我們想要獲取的數據基本上是NVIDIA的智能。瞭解其含義,就像我們瞭解了我們剛剛談到的幾乎所有其他內容的含義一樣,然後將這些知識重新索引到一種稱爲矢量數據庫的新型數據庫中。

所以您本質上是採用結構化數據或非結構化數據,您瞭解它的含義,您編碼它的含義。所以現在這變成了一個人工智能數據庫和那個人工智能數據庫。將來,一旦您創建了它,您就可以與它交談。

讓我給您一個例子,說明您可以做什麼。假設您創建了您得到的,您得到了一大堆多模態數據,其中一個很好的例子就是PDF。所以您將在所有的PDF中,將所有您最喜歡的您知道的東西都拿走。對您專有、對您公司至關重要的,您可以對其進行編碼。就像我們對貓的像素進行編碼一樣,它變成了貓這個詞。我們可以對您所有的PDF進行編碼,然後它就會變成。

現在存儲在矢量數據庫內的矢量將成爲您公司的專有信息。一旦您擁有該專有信息,您就可以與它聊天。這是一個智能數據庫,您只需與數據聊天,您知道這有多有趣。

對於我們的軟件團隊來說,他們只是與錯誤聊天數據庫。您知道昨晚有多少錯誤,我們是否取得了任何進展。然後在您完成討論之後,Bug數據庫,您需要治療。所以我們爲您準備了另一個聊天機器人。您是否在詢問我們的尼莫檢索器?這個工具的主要功能是快速檢索信息。您只需對它發出指令,例如:“嘿,檢索我這個信息”,它就會立即爲您找到並返回所需的信息。這就是您想要了解的嗎?我們將其命名爲Nemo檢索器。Nemo服務可以幫助您創建各種所需的工具。我們擁有各種不同的NIMS,甚至包括數字人類的NIMS。我是Rachel,您的人工智能護理經理。

接下來,我要向您展示的是一個非常短的剪輯。我們有很多視頻和演示想要向您展示,所以我只能剪短這個片段。這是戴安娜,她是一個數字人類NIM。您只需與她交談,她就會在這種情況下,與希波克拉底人工智能的醫療保健大型語言模型相連接,這確實令人驚歎。她在醫療保健方面非常聰明。所以在你完成與我的軟件工程副總裁Dwight和Chatbot討論Bug數據庫之後,你可以過來與Diane交談。Diane是完全由人工智能驅動的數字人類。

許多公司都希望能夠開發他們所擁有的金礦。企業IT行業就坐擁一座金礦,因爲他們對此有深入的瞭解。他們擁有多年來創建的所有這些令人驚歎的工具,以及大量的數據。如果他們能夠開發這個金礦並將其轉化爲Copilot,這些Copilot可以幫助我們完成工作。

因此,世界上幾乎所有擁有人們使用的有價值工具的IT特許經營IT平臺都坐在Copilot的金礦上。他們希望在自己的聊天機器人中建立自己的Copilot。因此,我們宣佈NVIDIA AI Foundry正在與世界上一些偉大的公司合作。例如,SAP,它支撐了全球87%的全球商業,基本上世界都在SAP上運行。我們在SAP上運行。NVIDIA和SAP正在使用NVIDIA NEMO和DGX Cloud構建SAP gem Co-pilots。

ServiceNow運營着85%的世界財富500強公司在ServiceNow上運行其人員和客戶服務業務。他們正在使用NVIDIA AI Foundry來構建ServiceNow輔助虛擬助手。Cohesity備份世界數據。他們坐擁數據金礦,擁有超過10,000家公司的數百艾字節數據。NVIDIA AI Foundry正在與他們合作,幫助他們構建Gaia生成式AI代理。

Snowflake是一家在雲中存儲全球數字倉庫的公司,每天爲10,000家企業客戶提供超過30億次查詢服務。Snowflake正在與NVIDIA AI Foundry合作打造Copilot。藉助NVIDIA NEMO和NIMS,NetApp存儲了全球近一半的文件。NVIDIA AI Foundry正在幫助他們使用NVIDIA NEMO和NIMS構建聊天機器人和Copilot,例如矢量數據庫和檢索器。我們與戴爾有着良好的合作伙伴關係。我們正在構建聊天機器人和生成人工智能。當你準備好運行它時,你將需要一個人工智能工廠。沒有人比戴爾更擅長爲企業構建大規模的端到端系統,因此,無論是個人還是公司,都需要建立人工智能工廠。事實證明,邁克爾·戴爾非常樂意接受您的訂單。女士們、先生們,邁克爾·戴爾。

現在,我們來談談機器人和人工智能的下一波浪潮,即機器人物理人工智能。到目前爲止,我們談論的所有人工智能都是一臺計算機。數據進入一臺計算機,世界上許多的數據都以數字文本的形式存在。人工智能模仿我們,通過閱讀大量的語言來預測下一個單詞,它正在模仿你通過研究所有的模式和所有其他前面的例子。當然,它必須理解上下文等等,但是一旦它理解了上下文,它就本質上是在模仿你。

我們獲取所有數據,將其放入像DGX這樣的系統中,將其壓縮爲大型語言模型,數萬億個參數變成數十億個,數十億個Token變成數十億個參數,這些數十億個參數變成你的人工智能。爲了讓我們進入下一波人工智能浪潮,讓人工智能理解物理世界,我們將需要三臺計算機。

第一臺計算機仍然是同一臺計算機,它是人工智能計算機,現在它將觀看視頻,也許它正在進行合成數據生成,也許有很多人類示例,就像我們有文本形式的人類示例一樣,我們將以清晰的形式提供人類的例子。人工智能會監視我們,瞭解正在發生的事情,並嘗試將其適應上下文。而且因爲它可以推廣這些基礎模型,也許這些機器人也可以在物理世界中相當普遍地執行。

我只是用非常簡單的術語描述了大語言模型中剛剛發生的事情,除了機器人的ChatGPT時刻可能即將到來。因此,我們構建機器人端到端系統已經有一段時間了,我對這項工作感到非常非常自豪,我們擁有人工智能系統DGX。我們有較低的系統,稱爲AGX對於自主系統,世界上第一個機器人處理器,當我們第一次構建這個東西時,人們在構建什麼它是一個SOC,它是一個芯片它被設計爲非常低功耗但它是專爲高速傳感器處理和人工智能而設計。

因此,如果您想在汽車中運行Transformer,或者您想在任何東西中運行Transformer,那麼,我們爲您提供了完美的計算機,它被稱爲Jetson。因此頂部的DGX用於訓練AI,Jetson是自主處理器,中間我們需要另一臺計算機。而大型語言模型有好處。您提供示例,然後進行強化學習人類反饋。

什麼是機器人的強化學習人類反饋,這是強化學習物理反饋,這就是你如何調整機器人,這就是你的方式,這就是機器人在學習時知道這些關節能力和操縱能力,它將正確適應物理定律,所以我們需要一個模擬引擎。以數字方式代表世界對於機器人來說,讓機器人有一個健身房去學習如何成爲一個機器人我們稱之爲虛擬世界。Omniverse和運行Omniverse的計算機稱爲OVX,OVX,計算機本身託管在Azure雲中。

所以基本上我們構建了這三個東西,這三個系統,在這三個系統之上,我們爲每個系統都有算法。現在我將向您展示人工智能和全宇宙如何協同工作的一個超級示例,我將向您展示的示例有點瘋狂,但它將非常非常接近明天。這是一座被稱爲“倉庫”的機器人大樓。在這座大樓內,將會有一些自治系統,其中一些將被稱爲人類,另一些則被稱爲叉車。這些自治系統將自動地相互交互,而倉庫將監控並調整它們的行爲,以確保每個人都免受傷害。

倉庫的角色可以被比喻爲空中交通管制員,每當有事情發生時,它將重定向交通併爲機器人和人們提供新的路徑點,他們會確切地知道該怎麼做。這個倉庫,或者說這個大樓,也具有交流的能力。您可以與它進行對話,比如詢問SAP中心今天的感覺如何。

這個我剛纔描述的系統將有Omniverse雲,它託管在DGX雲上運行的虛擬模擬和人工智能,所有這些都是實時運行的。重工業的未來始於數字孿生。人工智能代理,它們幫助機器人、工人和基礎設施應對複雜工業空間中不可預測的事件,將首先在複雜的數字孿生中構建和評估。

這個100,000平方英尺的倉庫的Omniverse數字孿生作爲一個模擬環境運行,集成了數字工人、運行NVIDIA Isaac受體堆棧的AMR整個倉庫的集中活動地圖,由100個模擬吸頂式攝像機繪製。使用NVIDIA Metropolis並通過NVIDIA進行AMR路線規劃合作軟件循環測試人工智能代理在這個物理上精確的模擬環境中使我們能夠評估和完善系統如何適應現實世界的不可預測性。

在這裡,當一起事故沿着AMR計劃的路線發生時,其路徑被NVIDIA Metropolis更新,並將實時佔用地圖發送到合作社,在那裡計算出新的最佳路線。AMR能夠查看周圍的拐角處並通過生成人工智能驅動的Metropolis Vision基礎模型提高其任務效率。操作員甚至可以使用自然語言提出問題。視覺模型可以理解細緻入微的活動,並可以提供即時見解以改進操作。

所有傳感器數據均在模擬中創建,並傳遞給作爲NVIDIA推理微服務或NEMS運行的實時AI。準備部署在物理孿生中,即真正的倉庫中,我們將Metropolis和Isaac NEMS連接到真實的傳感器,能夠持續改進數字孿生和人工智能模型。

未來的設施倉庫、工廠建築將由軟件定義,因此軟件正在運行。那麼,還有什麼其他方式您會測試軟件,以便測試軟件以構建倉庫、優化系統呢?在數字孿生中,所有機器人都在運行自己的自主機器人堆棧,因此在未來機器人系統的CICD中集成軟件的方式是使用數字孿生。

我們已經使全宇宙變得更容易訪問,我們將爲簡單的Api和通道創建基本上全宇宙雲api,您可以將您的應用程序連接到它,這將是非常美麗的簡單。在未來全方位宇宙將成爲現實,通過這些api,您將擁有我們也已經轉變的神奇數字孿生功能。

我們已經將全宇宙變成了人工智能,並將其與使用我們語言的語言聊天的能力集成起來。人類和全宇宙是語言,事實證明是通用的場景描述。所以這種語言是相當複雜的,所以我們已經教了我們的全宇宙這種語言。所以你可以用英語對它說話,它會直接生成美元,它會用美元回覆,但會用英語跟你說話。你也可以尋找這個世界上的信息,語義上而不是世界被語義編碼,現在在語言中,它在場景中被語義編碼。在某些特定的物體、條件或場景下,人工智能可以幫助您找到相應的場景,並在生成過程中與您協作。您可以在3D環境中設計一些東西,模擬一些東西,或者使用人工智能在3D環境中生成一些東西。讓我們一起探討這一切將如何進行。

我們與西門子有着良好的合作伙伴關係。西門子是世界上最大的工業工程和運營平臺。在工業領域,有許多不同的公司,其中太空重工業是其最偉大的最終前沿之一。現在,我們終於擁有了必要的技術,可以產生真正的影響。西門子正在構建工業元宇宙。今天,我們宣佈,西門子將他們的皇冠寶石加速器連接到Nvidia Omniverse。讓我們一起來看看。

西門子的技術每天都在發生變化。對於每個人,團隊中心X的客戶每天都在使用來自西門子加速器平臺的領先產品生命週期管理軟件來開發和交付產品。現在,我們正在通過集成Nvidia的技術,大規模地拉近真實世界和虛擬世界的距離,將AI和Omniverse技術引入團隊中心。

Omniverse APIs實現了數據互操作性和基於物理的渲染。對於工業規模的設計和製造項目,我們的客戶HD和可持續船舶製造的市場領導者正在構建氨和氫動力芯片,這些芯片通常包含超過700萬個分立零件。Omniverse APIs和團隊中心X使HD和其他公司能夠以交互方式統一和可視化這些海量工程數據集,並集成生成式人工智能以生成3D對象或HDRI背景,以便在上下文中查看其項目。

這樣的結果是一個超直觀的、基於照片真實物理的數字孿生,消除了浪費和錯誤,大大節省了成本和時間。我們正在構建這個系統,以便於協作,無論是跨越更多的西門子加速器工具,如西門子附件或Star CCM Plus,還是跨團隊致力於他們最喜歡的工作,同一場景中的設備在一起。這只是與Nvidia合作的開始,我們將在整個西門子加速器產品組合中引入加速器計算生成人工智能和全方位集成。

我的好朋友,專業的配音演員羅蘭布什,恰好是西門子的CEO。一旦你將Omniverse連接到你的工作流程和生態系統,從你的設計開始,從工程設計到製造規劃,一直到數字孿生運營,一旦你把一切連接在一起,你可以獲得多少生產力,這真是太瘋狂了。突然間,每個人都在同一個基本事實上運作,這真是太棒了。

你不必交換數據和轉換數據犯錯誤,每個人都在同一個事實上工作,從設計部門到美術部門,從建築部門一直到工程部門,甚至營銷部門。讓我們來看看Nissan是如何做到的,他們已經將Omniverse集成到他們的工作流程中,這都是因爲它通過所有這些出色的工具以及與我們合作的開發人員連接起來。

這不是動畫,這是全宇宙。今天我們宣佈全宇宙雲流至視覺專業人士。你在虛擬門周圍走動是非常非常奇怪的。當我從那輛車裡下來的時候,每個人都這樣做,這真的是非常驚人的。願景Pro連接到全宇宙,帶你進入全宇宙。

因爲所有這些CAD工具和所有這些不同的設計工具現在都集成並連接到Omniverse,你可以擁有這種類型的工作流程,這真的令人難以置信。讓我們來談談機器人技術,所有移動的東西都將是機器人,毫無疑問,它更安全,更方便。汽車行業將成爲最大的行業之一。我們正在從頭開始構建機器人堆棧,就像我在計算機系統中提到的那樣。對於自動駕駛汽車,包括今年年底的自動駕駛汽車應用,我預測明年年初我們將開始使用梅賽德斯發貨,緊隨其後的是捷豹路虎。

這些自主機器人系統是由軟件定義的,它們需要進行大量的工作,包括計算機視覺,人工智能控制,以及規劃各種非常複雜的技術。這需要數年時間來完善,我們正在構建整個堆棧。

然而,我們將整個堆棧開放給所有汽車行業,這就是我們的工作方式。我們在每個行業都嘗試儘可能多地構建,以便我們理解它,然後我們將其開放給每個人,無論您是否願意購買我們的全球唯一的計算機,都可以訪問它。我們的全功能安全ACLD系統可以運行AI。這種功能安全的優質計算機或操作系統位於我們的數據中心之上。

基本上,不是所有的自動駕駛汽車公司都可以享受到這一點,但如果您想享受,我們會很高興。今天我們宣佈,世界上最大的電動汽車公司比亞迪正在採用我們的下一代產品,它被稱爲雷神。雷神是爲Transformer雷神發動機而設計的,我們的下一代影音計算機將由比亞迪使用。

您可能不知道,我們擁有超過一百萬的機器人開發人員。我們創造了噴氣式飛機和這臺我們感到非常自豪的機器人計算機。它之上的軟件數量是瘋狂的,但我們之所以能做到這一點,完全是因爲它百分百與CUDA兼容。我們所做的一切,我們在公司所做的一切,不是爲了我們的開發人員的服務,而是爲了我們能夠維護這個豐富的生態系統,並使其與您從我們訪問的所有內容兼容。我們可以將所有這些令人難以置信的功能帶到這臺小小的計算機上,我們將Jetson稱爲我們的機器人計算機。

我們今天還宣佈了一個令人難以置信的高級新SDK,我們稱之爲Isaac。Isaac感知器是今天大多數機器人的感知器,它們都是預先編程的,它們要麼遵循地面數字軌道上的軌道,要麼遵循四月的標籤。但在未來,它們將具有感知能力,你可以輕鬆地對其進行編程,你說我想要從A點到B點,它會找到一種導航方式。因此,只需對路點進行編程,整個路線就可以自適應整個環境。可以重新編程,正如我一開始就向您展示的那樣,在倉庫中,您無法通過預編程的GV做到這一點,如果這些盒子掉下來,它們就會全部粘起來,然後就在那裡等待有人來清理它。所以現在有了Isaac感知器,我們擁有令人難以置信的最先進的視覺里程計,3D重建以及3D重建深度感知。

今天的機器人最常用的是機械手臂。製造手臂,它們還預先編程了計算機視覺算法、人工智能算法、控制和路徑規劃算法,這些算法是幾何感知的,計算量非常大。我們已經使這些庫達到了加速,所以我們擁有世界上第一個加速運動規劃器,這是幾何感知的。你把它提出了一個新的計劃並圍繞它進行了闡述,它對3D物體的姿勢估計具有出色的感知能力。它不僅不是2D的姿勢,而是3D的姿勢,所以它必須想象周圍有什麼以及如何最好地抓住它,以便基金會擺出抓地力的姿勢。這種關節算法現在可用,我們稱之爲Isaac操縱器,它們也可以在視頻計算機上運行。我們正在進行一些真正偉大的工作,關於下一代機器人技術。下一代機器人技術可能會是人形機器人。我們現在擁有必要的技術,正如我之前所描述的。想象一下所需的技術。廣義的人類機器人技術在某種程度上可能更容易,原因是我們有更多的機器人技術。

我們可以爲機器人提供模仿訓練數據。因爲我們是以非常相似的方式構建的,所以人類機器人很可能在我們的世界中更加有用。我們創造了一個可以互操作並很好地工作的世界,我們建立工作站、製造和物流的方式是爲人類設計的,因此這些人類或機器人的部署可能會更加高效。

我們正在創建整個堆棧,就像我們與其他人一樣。從頂部開始,從觀看視頻“Human”中學習的基礎模型。示例可以是視頻形式,也可以是虛擬現實形式,然後我們爲其創建了一個健身房,稱爲艾薩克強化學習健身房。這使得人形機器人能夠學習如何適應物理世界,然後是一臺令人難以置信的計算機,這臺計算機將進入機器人汽車,這臺計算機將在人類或機器人體內運行,稱爲雷神,它是爲Transformer引擎設計的。

我們將其中的幾個內容合併到一個視頻中,您一定會喜歡看一下。這還不足以人類想象。我們必須發明、探索,並推動超出已完成的工作的相當多的細節。我們創造更智能、更快的機器人。我們推動它失敗,所以它可以學習。我們教它然後幫助它自學。我們拓寬了它的理解,去迎接新的挑戰。具有絕對的精度,併成功。我們讓它感知、移動,甚至還有理由,所以它可以與我們分享我們的世界。這就是靈感引領我們下一個前沿的地方。

這是NVIDIA項目組,人形機器人學習的通用基礎模型。組模型將多模式指令和過去的交互作爲輸入,並生成機器人要執行的下一個動作。我們開發了Isaac實驗室,一個機器人學習應用程序來訓練Omniverse Isaac sim組。我們使用Osmo擴展了一種新的計算編排服務,該服務可以協調用於訓練的DGX系統和用於模擬的OVX系統之間的工作流程。

藉助這些工具,我們可以在基於物理的模擬中訓練團隊,並將零射擊轉移到現實世界。團體模型將使機器人能夠從少量人類演示中學習,因此它可以幫助完成日常任務。通過觀察我們來模仿人類的運動。這是通過NVIDIA的技術實現的,這些技術可以從視頻中理解人類,訓練模型和模擬,並最終將它們直接部署到物理機器人上,將羣組連接到大型語言模型,甚至允許它生成動作,通過遵循自然語言指令,你能給我一個高五嗎?讓我們高五。你能給我們一些很酷的動作嗎?看看這個。

所有這些令人難以置信的智能均由全新Jetson Thor機器人芯片提供支持,專爲面向未來的團隊而設計。通過Isaac lab, Osmo和Groot,我們正在爲下一代人工智能提供構建模塊。動力機器人。大小差不多。

NVIDIA的靈魂。計算機圖形學物理人工智能的交叉點。這一切都在此時產生了通用機器人項目的名稱。003。我知道超級好。超好。我想我們有一些特殊的客人。大家好,我知道你們都是由Jetson提供動力的,他們是由Jetsons提供動力的小Jetson機器人計算機,他們已經學會了模擬行走。這是橙色的,這是著名的綠色,他們是迪士尼的BDX機器人,這是迪士尼研究的成果。現在,讓我們結束吧,我們走吧。

我想和你們分享五件事。首先,我想問你,你要去哪裡?我就坐在這裡。別害怕,綠色,你在說什麼?不,還沒到吃飯的時間。我一會兒就給你吃零食,讓我快點吃完。來吧,綠燈快點停下來。我們不能浪費時間。

最後,五件事。

首先是新工業革命。每個數據中心都應該加速價值萬億美元的已安裝數據中心。由於計算能力帶來了一種新的軟件製作方式,生成式人工智能(Generative AI)已經出現,因此在未來幾年內將變得現代化。這將創造新的基礎設施,這些基礎設施致力於做一件事且僅做一件事,它們不適用於多用戶數據中心,而是人工智能生成器。這些人工智能生成器將創造出極其有價值的軟件。

第二,這次革命的計算機。這一代的計算機,萬億參數的生成式AI。Blackwell,瘋狂數量的計算能力。

第三, Nims。新計算機創建新類型的軟件。新型軟件應該以新的方式分發,以便它可以一方面成爲雲中的端點,易於使用,但仍然允許您隨身攜帶,因爲它是你的智慧。你的智慧應該以一種允許你隨身攜帶的方式打包,我們稱之爲NIMS。

第四,Nemo and Nvidia AI Foundary。這些NIMS將幫助你爲未來創建一種新型的應用程序,而不是你完全從頭開始編寫的應用程序,但您將像Teams一樣集成它們。這些應用程序在NIMS、人工智能技術、工具Nemo和基礎設施DGX雲之間擁有出色的能力。在我們的AI工廠裡,幫助您創建專有應用程序、專有聊天機器人。

最後,Omniverse and ISAAC 機器人。未來移動的一切都將是機器人,您不會是唯一的一個和這些機器人系統。無論它們是人形機器人、自動駕駛汽車、叉車還是操縱手臂,他們都需要一件事:巨型體育場倉庫、那裡的工廠可以是工廠、機器人編排工廠、機器人生產線、製造機器人汽車。這些系統都需要一個東西,一個平臺,一個數字平臺,一個數字孿生平臺,我們稱之爲全宇宙,機器人世界的操作系統。

這就是我們今天討論的五件事。

當我們談論GPU時,Nvidia是什麼樣子?當人們首先問我有關GPU的問題時,我看到的是一堆軟件堆棧和類似的東西,然後我看到的是這個,這就是我們今天向您宣佈的,這是Blackwell,這是平臺。令人驚歎的處理器MV鏈路交換機網絡系統和系統設計,這是一個奇蹟,這是Blackwell,這對我來說就是我心目中的GPU的樣子。

謝謝你們,祝你們GTC2024愉快,謝謝大家的光臨,謝謝。