在ChatGPT問世之後,AI領域的競爭變得日益激烈、百家爭鳴,如今正式邁入了AI的「戰國時代」,各大企業無不使出渾身解數,在電力爭取上也是費盡了心思和力氣,畢竟數據中心和訓練AI消耗的電量往往十分驚人,甚至相當於一座城市的平均用電量。
這顛覆了20年多來公共事業、發電商的傳統運作模式,因為過去人們並不需要這麼多的電力。近期,中國推出的DeepSeek-R1,效能可媲美OpenAI最新模型,訓練成本卻只有Meta、OpenAI的十分之一,讓外界除了震驚,也開始思考AI究竟真正需要多少計算能力和電力。
Meta和微軟(Microsoft)表示,未來他們會持續大規模投資AI、促進技術,讓AI變得更便宜、更普及。然而,無論如何提高訓練模型的效能,AI應用還是比傳統的Google搜尋等更耗電,總體能源的需求依然會上升。
針對這個議題,《華爾街日報》統整、說明為何AI電力需求如此龐大,以及目前電力產業如何應對的五大要點。
《華爾街日報》報導:關於AI的能源需求,你需要了解的五件事
一、算力需求呈現指數型成長
根據非營利研究機構Epoch AI的數據,目前主流的AI模型,如OpenAI的GPT-4和Meta的Llama 3.1,都是在耗電量約30兆瓦(MW)的數據中心訓練的。你可能對這個數字沒概念——這相當於30家沃爾瑪(Walmart)門市同時運作時的用電量。
專家估算到了2030年,訓練最大型AI模型的數據中心將需要超過5吉瓦(GW,1吉瓦等於1000兆瓦)的電力,和紐約曼哈頓的平均用電量差不多。
Epoch AI的主任蘇維拉(Jaime Sevilla)表示,業界會持續擴大模型的規模,延長訓練時間並增加訓練數據,能進一步提升模型的表現。他認為DeepSeek的案例,並不會改變整體的能源需求趨勢。
AI模型的訓練主要依賴圖形處理器(GPU),為了讓AI執行更複雜的任務,企業會不斷擴建更大的GPU集群,代表電力需求也將會提高。
根據數據,每年新AI模型訓練所需的計算能力大約是前一年的四倍,遠遠超過硬體提升效率的速度。除了運行GPU本身的耗能外,訓練AI還需要伺服器來儲存、管理數據;與GPU之間的連接和冷卻系統等,都進一步增加了電力消耗。
二、未來的電力需求不確定性大
關於AI的電力需求,市場預測的分歧非常大。在DeepSeek推出模型之前,數據中心的耗電量預計在2030年佔美國總電力消耗的4.6%到17%之間。不過根據美國電力研究院(Electric Power Research Institute)的數據,這個數字在2024年約為4%,相差甚大。
即使只是保守估計,對美國電網來說壓力還是相當巨大。美國電網負責將電力從發電廠傳輸到各個家庭、企業和工廠,由數千個發電廠、數百萬公里的輸電線路和變電站組成,被稱為「全球最大機械」。 (相關報導: AI到底是我們的幫手或對手?企業面臨3大難題,專家給出中肯建議 | 更多文章 )
公共事業公司表示,這波趨勢類似當年空調普及時,隨之而來的電力需求暴增。