華爾街日報》GPT-3模型每回答10到50次用戶詢問,就需要喝500毫升的水!AI吃電又耗水,如何破解這一難題?

人工智慧開發商稱正在努力實現碳中和,並補充比他們使用量還多的水,即使這些公司還在繼續建設大型數據中心。(使用Gemini生成)

人工智慧(AI)將改變人們的工作和日常生活,但也有弊端:AI電腦中心會消耗大量電力和水,為其處理晶片供電並冷卻其散發的熱量。

諮詢公司麥肯錫(McKinsey)的預測顯示,到2030年,美國各類數據中心的年用電量將從目前佔美國總用電量的3%-4%升至11%-12%,其中AI是主力軍。

本文為風傳媒與華爾街日報正式合作授權轉載。加入VVIP會員請點此訂閱:風傳媒・華爾街日報VVIP,獨享全球最低優惠價,暢讀中英日文全版本之華爾街日報,洞悉國際政經最前沿。

與此同時,加州大學河濱分校(University of California, Riverside)和德州大學阿靈頓分校(University of Texas at Arlington)的研究人員表示,到2027年,全球AI的水需求量可能超過丹麥每年的總取水量,或相當於英國的一半。

耗電耗水給這一行業帶來物流和公眾形象的問題。一些公用事業公司難以滿足AI企業的需求,當地社區也予以抵制,擔心增加使用量會推高電價並耗盡水資源。

包括亞馬遜(Amazon)、Alphabet旗下Google(Google)、Meta和微軟(Microsoft)在內的最大的AI提供商表示,他們正在努力實現碳中和,並補充比他們使用量還多的水,即使這些公司還在繼續建設大型數據中心。

「建設數據中心將更加困難,尤其是在能源本來就很寶貴或水資源可能稀缺的地方,」技術諮詢公司Gartner的研究副總裁Ed Anderson說。但他補充道,「經濟機會足夠豐富,提供商會找到辦法的。」

以下是科技公司和研究人員希望採取的有助於減少AI電力和水需求的措施。

提高晶片效率

解決耗電問題的一種方法是降低晶片的耗電量。全球最大的AI處理器製造商輝達(Nvidia)表示,其最新款的Blackwell晶片的能效將比之前的高端版本強25倍左右。與此同時,亞馬遜、Google、Meta和微軟正在設計自己的處理晶片,即是為了降低成本,也是為了讓它們更省電。

「每一代都比上一代效率高很多,」Google副總裁兼工程研究員Partha Ranganathan談到該公司的處理器時說。

不同的水源

用於冷卻數據中心的設備本身也帶來一個問題:這些設備需要消耗大量的水,這些水從何而來?Google表示,其全球數據中心在2023年使用了約61億加侖水,相當於每年用於灌溉和維護美國西南部40個高爾夫球場的用水量。 

加州大學河濱分校和德州大學阿靈頓分校的研究人員稱,OpenAI的GPT-3模型每回答10到50次用戶詢問,就會消耗相當於16.9盎司(500毫升)瓶裝水的水量。OpenAI對此不予置評。

數據中心的用水通常來自市政供水系統。但在水資源短缺的時代,將飲用水轉用於工業用途在一些地方造成緊張。這促使AI公司開始尋找其他水源,包括雨水、經過處理的廢水或工廠生產過程中剩餘的水。  (相關報導: 華爾街日報》Nvidia登頂之後,是否只剩下坡路可走? 更多文章

例如,亞馬遜在加州聖克拉拉的數據中心使用回收廢水進行冷卻。這些水來自該市污水處理系統,經過三個步驟的處理去除99%的雜質。