谷歌AI芯片AI設計!端到端閉環,三星聯發科都buy in了
芯片加速AI發展,AI反過來又推動芯片進步?
剛剛,谷歌芯片設計算法AlphaChip正式亮相。
DeepMind CEO哈薩比斯調侃:這下閉環了。
要知道,AlphaChip只需幾個小時就能生成比肩人類水平的芯片設計圖。
谷歌目前最強TPU“Trillium”,AlphaChip就參與了設計,而TPU又訓練了Gemini、Imagen、Veo等新算法。
以及聯發科、三星等芯片廠商,也都將其用到了實際生產中。
這不,最近處在轉型逆風期的英特爾深陷併購風波。於是網友給出主意:
谷歌表示AlphaChip現在不僅速度更快,而且需要的計算資源更少,已經達到人類專家級水平。
最新發布中,谷歌還開源了一個預訓練版本,這樣大家都能用AlphaChip更簡易地開發芯片(但也還是自己預訓練的效果更好)。
圍觀羣衆都相當興奮:
幾個小時搞定AI芯片設計
向前追溯來看,AlphaChip最早期的成果於2020年以預印本形式發佈,2021年登上Nature。
但直到今天谷歌纔給它了一個正式的名字。Jeff Dean是作者之一。
AlphaChip和AlphaGo、AlphaZero的原理相似,都是基於深度強化學習。
AlphaZero掌握了圍棋、國際象棋的遊戲規則,AlphaChip就是將規劃芯片佈局視爲一個遊戲。
一個芯片上往往包含數十億個晶體管,由他們組成的數千萬個邏輯門就是標準單元,此外還有數千個存儲塊,稱爲宏塊。
芯片設計就是要確定它們的位置,如何佈局將影響芯片的處理速度和電源效率。
傳統方法中,光是放置宏塊這一步就很耗時了,爲了給標準單元留出更多空間,每一次迭代都要幾天甚至幾周時間。
AlphaChip基於深度強化學習,從之前的芯片佈局中進行學習,生成新的設計方案。
它將宏和標準單元映射到一個平面畫布上,形成具有數百萬到數十億節點的“芯片網表”。
從一個空白格開始,一次放置一個電路元件,直到放置完所有元件。算法會對功率、性能和麪積(PPA)等進行優化,並輸出概率分佈。最終將根據佈局質量計算獎勵。
利用一種新型的基於邊緣(edge-based)的圖神經網絡AlphaChip可以學習互聯芯片組件之間的關係,並應用在芯片之間,所以AlphaChip能對設計的每個佈局進行改進。
下圖中,左圖爲零樣本下AlphaChip佈局開源Ariane RISC-V CPU的結果,右圖爲基於預訓練策略(設計20個TPU)微調的效果。
經過迭代,目前AlphaChip設計芯片的效果和速度都較此前有明顯提升,達到和人類專家相近水平。
谷歌列舉了AlphaChip在參與設計TPU v5e、TPU v5p、Trillium上的效果,它們分別是目前谷歌最先進的三款AI計算芯片。
AI設計芯片正在成爲新範式
值得一提的是,AlphaChip團隊此前還陷入過打假風波。
谷歌大腦員工Satrajit Chatterjee在內部質疑該團隊發表在Nature上的論文中存在一些站不住腳、實驗尚未經過充分的測試。2022年3月,該研究員被谷歌解僱。
(一個猜測:這或許也是AlphaChip遲遲沒有正式發佈的原因之一?)
不過,用AI設計芯片,不只是谷歌在搞。
英偉達的H100,也有AI參與設計。
通過利用深度強化學習agent設計電路,H100中有近13000條電路由AI設計。
更早之前,三星也被曝用新思科技的DSO.ai來設計Exynos處理器。
當時新思還很得意表示,DSO.ai是第一個用於處理器設計的商業AI軟件。
以及生成式AI大潮下,Cadence也在力推AI設計芯片,推出了Optimization AI方案。而且還有Cadence Copilot,利用大語言模型(LLM)和其他基礎模型,顯著提升工程師的生產力。
參考鏈接:[1]https://deepmind.google/discover/blog/how-alphachip-transformed-computer-chip-design/[2]https://x.com/demishassabis/status/1839354651206160563[3]https://x.com/JeffDean/status/1839308592408834559