英偉達發佈全新構架,今年上市,一套或售20萬美元
3月19日消息,當地時間週一,英偉達在美國加州聖何塞(San Jose)舉辦的全球開發者大會上,隆重發布了最新一代人工智能專用GPU芯片以及運行人工智能模型的軟件,意圖進一步鞏固其作爲人工智能領域首選供應商的地位。
英偉達推出的新一代人工智能GPU架構命名爲Blackwell,首款基於該架構的GB200芯片預計將在今年晚些時候推出。儘管當前市面上如Hopper架構的H100芯片等舊款產品依然供不應求,英偉達仍通過推出更高性能的新芯片來吸引客戶,鼓勵他們持續下單。
自2022年底,隨着OpenAI推出聊天機器人ChatGPT,掀起了一股人工智能熱潮,英偉達股價隨之飆升五倍,營業收入也增長了逾兩倍。英偉達的高性能GPU對於訓練和運行大型人工智能模型至關重要。像微軟、Meta這樣的科技巨頭,都斥資幾十億美元購買這種芯片。
英偉達首席執行官黃仁勳在大會上表示:“Hopper架構固然出色,但我們追求的是更加強大的GPU。”
英偉達股價在週一盤後交易中微跌超過1%。
爲了讓客戶在面對日益增多的競爭產品時更傾向於選擇英偉達芯片,公司還推出了一款名爲NIM的付費軟件,使得部署人工智能變得更加簡單。
英偉達高管表示,公司正從單一芯片供應商轉型爲類似於微軟或蘋果那樣的平臺提供者,其他公司可以在其平臺上開發軟件。
黃仁勳坦言:“Blackwell不僅僅是一款芯片,它代表的是一個平臺。”
英偉達企業計算部門副總裁馬努維爾·達斯(Manuvir Das)在接受採訪時表示:“最暢銷的商業產品仍是GPU,軟件則是爲了幫助用戶以不同的方式使用GPU。”他補充道:“當然,我們依然在致力於產品的創新。但現在,我們真正實現了轉變,已經發展出了自己的商業軟件業務。”
英偉達新軟件能讓在所有英偉達GPU上運行程序變得更加簡便,即便是對於那些老款GPU,它們雖更適合於部署人工智能應用,而非開發,也能輕鬆應對。
達斯說:“如果您是開發者,手中有一個備受期待的模型,希望能讓更多人採用,只需將其部署在NIM上。我們承諾將兼容所有英偉達GPU,確保模型能觸及廣泛用戶羣。”
Hopper架構的繼任者Blackwell
每隔兩年,英偉達都會更新其GPU架構,從而實現性能的顯著躍升。在過去一年中,衆多發佈的人工智能模型均在2022年宣佈的Hopper架構基礎上進行訓練,此架構涵蓋了包括H100在內的多款芯片。
據英偉達介紹,基於Blackwell架構的GB200芯片將爲人工智能領域公司帶來性能上巨大的飛躍,其人工智能計算能力可達每秒20千萬億次,遠超過H100芯片的每秒4千萬億次。這一強大的計算力將使企業得以訓練規模更大、複雜度更高的人工智能模型。
GB200芯片還特別集成了英偉達的高性能Transformer推理引擎,該技術專爲運行基於Transformer架構的人工智能設計,正是構成流行聊天機器人ChatGPT核心技術的關鍵部分。
Blackwell架構的GPU芯片體積龐大,實際上是由兩塊獨立製造的芯片集成於一塊臺積電代工的芯片上。英偉達同時推出了配套的GB200 NVLink 2服務器,內置72塊Blackwell架構GPU,以及其他用於人工智能模型訓練的專業組件。
知名雲服務提供商,包括亞馬遜、谷歌、微軟及甲骨文等,均將提供GB200芯片的雲服務。每套GB200系統由兩塊基於Blackwell架構的B200 GPU和一塊基於ARM架構的Grace CPU組成。英偉達透露,亞馬遜網絡服務(AWS)計劃建立一個包含2萬套GB200系統的超級計算集羣。
英偉達表示,亞馬遜的服務器集羣能夠部署達到27萬億參數的人工智能模型,規模遠超目前已知最大的GPT-4模型,後者擁有1.7萬億個參數。許多人工智能研究人員認爲,擁有更多參數和數據的超大模型能夠展現出更爲強大的能力。
雖然英偉達未公佈GB200芯片及其系統的具體售價,但根據分析師估計,參照Hopper架構H100芯片的售價範圍(每塊約2.5萬至4萬美元),一整套GB200系統的成本可能高達20萬美元。
英偉達的推理微服務
英偉達還宣佈,在其企業軟件訂閱服務中新增了一款名爲NIM的產品,即英偉達推理微服務(NVIDIA Inference Microservices)的縮寫,旨在簡化使用舊型號GPU進行人工智能推理和軟件運行的過程,使企業能夠繼續利用現有的數億塊英偉達GPU資源。相較於訓練新的人工智能模型,推理計算所需的計算資源更少,因此,企業可以通過NIM更加便捷地運行自己的人工智能模型,而不必依賴於OpenAI等公司提供的計算服務。
作爲其戰略的一部分,英偉達鼓勵購買其服務器的客戶訂閱英偉達企業服務,並按每塊GPU每年4500美元的標準收取許可費。此外,英偉達將與微軟、Hugging Face等領先的人工智能企業合作,確保它們開發的人工智能模型能夠在所有兼容的英偉達芯片上順暢運行。開發者可通過NIM服務,無需複雜配置,就能在自己的服務器或基於雲的英偉達服務器上高效地運行模型。
“在原本調用OpenAI服務的代碼中,僅需替換一行代碼,即可將其連接至英偉達提供的NIM服務,”達斯解釋說。
英偉達表示, NIM軟件不僅能在雲服務器上運行,還能使配備英偉達GPU的筆記本電腦上順暢運行人工智能應用,進一步擴展了NIM服務的應用場景。(辰辰)