我見我思-碳權世代 期待綠色AI演算法降臨

黃仁勳在Computex的演講時,介紹NVIDIA的各式新機器,由臺灣的各家協力廠製作。繪圖處理器(GPU)越疊越高,記憶體越放越大,機櫃越排越多,做出了一個超大型GPU的超級電腦。這一切都是起因於去年OpenAI所推出的ChatGPT所造成的風潮。OpenAI發展通用型AI(AGI)。他所走的路線不是推出新演算法,而是加大原有演算法的規模。所以造就出大型語言模型的成果,很自然的,所需要的訓練計算力也跟着大幅成長。

世界各國爭相恐後地建立自然語言的AI對話能力,於是就有了AI機房的需求。跟着就需要大量的GPU,自然要耗費更多的電力。這GPU是委託臺積電來生產的,生產晶圓要耗費大量電力,也消耗臺灣相當比例的備援電力和大部分的綠電。就像虛擬貨幣比特幣是吃電怪獸一般,大家看到它消耗了電力,但並沒有實質有意義的成果產出。AI繼續發展下去,未來它所需要的電力將比比特幣大更多。

這一切的根源就在於AI目前所使用的技術。它並不像上世紀所用的專家系統一樣,是由人類的經驗所凝聚而成。而是用模擬人類大腦結構的類神經網路,利用機器學習的原理,自動根據預測的錯誤來調整參數,以得出正確答案。但整體調整的速度非常緩慢,需要使用大量的計算資源,也就是GPU加速器來加速。同時要耗費數週,甚至數月來訓練,方有所成。

■No-GPU綠色AI演算法

才能跟上淨零趨勢

因爲過去在各方面的表現亮麗,包括有影像識別,自動翻譯,生成式繪圖,於是人們就想到利用現有成果,直接堆疊更多的計算資源,來擴大它的使用範圍。久而久之,GPU加速器的需求就爆炸式成長。

然而現在面對的是2050年的淨零排碳大限,要積極地減少能源的消耗。這種AI爆炸性成長,卻跟排碳的目標是背道而馳的。今天實在是到了需要改變的轉捩點。我們不能只再偷懶地買更多機器,再放大規模來發展AI。而是要開始想如何才能讓AI達到功能,但又不會消耗這麼多的能源。答案很簡單,就一句話,發展No-GPU綠色AI演算法。

從今天開始就先將GPU放到一旁,想一些新的演算法,不需要使用GPU,就可以達到相同的功能。語言模型其實就像背書,但現在的模型卻需要用數百個參數來代表一個字,再加以運算。想一想搜索引擎,它也是背書,但它似乎不需要用這麼多參數來運算,甚至還能夠壓縮資料,用更小的記憶體來存放。

聰明的學術界專家們,是否也能開始研究這種No-GPU綠色AI演算法,以應付將來2050年的淨零排碳大限呢?