人工智慧(AI)將改變人們的工作和日常生活,但也有弊端:AI電腦中心會消耗大量電力和水,為其處理晶片供電並冷卻其散發的熱量。
諮詢公司麥肯錫(McKinsey)的預測顯示,到2030年,美國各類數據中心的年用電量將從目前佔美國總用電量的3%-4%升至11%-12%,其中AI是主力軍。
與此同時,加州大學河濱分校(University of California, Riverside)和德州大學阿靈頓分校(University of Texas at Arlington)的研究人員表示,到2027年,全球AI的水需求量可能超過丹麥每年的總取水量,或相當於英國的一半。
耗電耗水給這一行業帶來物流和公眾形象的問題。一些公用事業公司難以滿足AI企業的需求,當地社區也予以抵制,擔心增加使用量會推高電價並耗盡水資源。
包括亞馬遜(Amazon)、Alphabet旗下Google(Google)、Meta和微軟(Microsoft)在內的最大的AI提供商表示,他們正在努力實現碳中和,並補充比他們使用量還多的水,即使這些公司還在繼續建設大型數據中心。
「建設數據中心將更加困難,尤其是在能源本來就很寶貴或水資源可能稀缺的地方,」技術諮詢公司Gartner的研究副總裁Ed Anderson說。但他補充道,「經濟機會足夠豐富,提供商會找到辦法的。」
以下是科技公司和研究人員希望採取的有助於減少AI電力和水需求的措施。
提高晶片效率
解決耗電問題的一種方法是降低晶片的耗電量。全球最大的AI處理器製造商輝達(Nvidia)表示,其最新款的Blackwell晶片的能效將比之前的高端版本強25倍左右。與此同時,亞馬遜、Google、Meta和微軟正在設計自己的處理晶片,即是為了降低成本,也是為了讓它們更省電。
「每一代都比上一代效率高很多,」Google副總裁兼工程研究員Partha Ranganathan談到該公司的處理器時說。
不同的水源
用於冷卻數據中心的設備本身也帶來一個問題:這些設備需要消耗大量的水,這些水從何而來?Google表示,其全球數據中心在2023年使用了約61億加侖水,相當於每年用於灌溉和維護美國西南部40個高爾夫球場的用水量。
加州大學河濱分校和德州大學阿靈頓分校的研究人員稱,OpenAI的GPT-3模型每回答10到50次用戶詢問,就會消耗相當於16.9盎司(500毫升)瓶裝水的水量。OpenAI對此不予置評。
例如,亞馬遜在加州聖克拉拉的數據中心使用回收廢水進行冷卻。這些水來自該市污水處理系統,經過三個步驟的處理去除99%的雜質。
更智慧的AI訓練
一些研究人員嘗試謹慎控制AI模型在訓練期間吸收的資訊種類和數量。通常,訓練所謂的大語言模型AI,比如OpenAI的ChatGPT和微軟的Copilot,需要從網路和其他地方獲取數千億個單詞,然後學習它們之間的關係。
這需要耗費大量能源和水資源。史丹佛大學的一份報告顯示,訓練名為BLOOM的AI模型在3個半月的時間裡消耗的電力足以供美國普通家庭使用41年。
加州大學河濱分校電氣與電腦工程系教授Shaolei Ren表示,在用水方面,訓練名為LaMDA的GoogleAI模型大約消耗了200萬升水,足以裝滿大約5,000個浴缸。這些水包括用於發電以及用於給電腦降溫的水。Google對這項研究不予置評,但表示該公司「致力於以環保的方式為我們的數據中心降溫」。
一種可能的解決方案是讓AI去除冗餘和低品質的數據,而不是對整個網路上的內容來者不拒。這樣做的目的是,當用戶向AI系統提問時,AI可以更輕鬆地在一個規模小得多的數據集中進行篩選。
專家們指出,限制資訊接收的AI系統產生「幻覺」(給出錯誤或誤導性答案)的可能性也更低,而且由於涵蓋的數據品質更高,因此能做出更切題的回答。微軟發現,該公司一個精簡版AI在常識和邏輯推理方面的表現超過了更大的AI。
降低功耗
多所大學的研究人員發現, 限制AI電腦的用電量只會對結果產生輕微影響,比如處理時間略有增加。
麻省理工學院(Massachusetts Institute of Technology)和東北大學(Northeastern University)的專家表示,將Meta的一個AI功耗降低22%-24%,只會讓查詢的回應速度降低5%-8%。「這些技術可以明顯降低能耗,」研究人員表示。他們還說,這種方法還降低了處理器的運行溫度,從而有望減少冷卻需求。
Meta對這項研究不予置評,但表示自「十多年前我們開始設計第一個數據中心」以來,該公司一直在努力提高數據中心的能源效率。
與此同時,密西根大學(University of Michigan)、華盛頓大學(University of Washington)和加州大學聖地牙哥分校(University of California, San Diego)的一個團隊設計了一種算法,調節訓練過程中使用的電力。他們表示,這項技術可以將電力消耗降低多達30%。
向用戶展示AI的影響
一些研究人員認為,企業應該讓用戶更多地了解AI對環境的影響,讓他們在使用這項技術時做出更明智的決定。加州大學河濱分校的Ren建議,AI提供商應披露每次查詢大約消耗的電力和水量,類似於Google把每次行程將產生的碳排放量告知搜尋航班的人。
(相關報導:
華爾街日報》Nvidia登頂之後,是否只剩下坡路可走?
|
更多文章
)
另一個建議是為AI系統的能效設計一個評級體系,類似於美國政府對家用電器和其他產品的能源之星(Energy Star)評級。機器學習工具公司Hugging Face的AI研究員薩莎・盧奇歐尼(Sasha Luccioni)表示,這樣一個體系可能幫助人們根據能耗為不同的任務選擇不同的AI模型。
利用綠色能源
學術界和其他人士還提出了另一些建議,試圖通過使用綠色能源將AI的環境影響降至最低。例如,企業可以在水力發電豐富的挪威或地熱資源豐富的冰島等擁有豐富低排放能源的國家建設更多的數據中心。企業還可以在一天中的不同時間段在不同地點進行AI計算,例如在白天部署大量使用太陽能的電腦中心,或是在夜間風力更可靠時部署風力發電的電腦中心。
為電腦降溫
數據中心的電腦會散發出巨大的熱量,為防止電子元件損壞,其溫度必須保持在一定範圍內,通常是華氏64至72度(約攝氏18至22度)。傳統上,這是通過大功率空調來實現的。但空調消耗的電力佔一個典型數據中心總耗電量的40%,而將熱量排放到外部空氣的冷卻塔則會消耗大量水。
為此,數據中心行業正在轉向液體冷卻技術,讓一種特殊液體或冷水循環到位於處理器晶片頂部的「冷板」,使其保持在安全高效的溫度範圍內。這種被稱為直接晶片液體冷卻的系統比傳統方法耗電量更低(據輝達稱,耗電量低30%左右),因為相比於將冷空氣吹過電子元件,液體在帶走電子元件熱量方面的效果要好得多。
另一種正在開發的方法被稱為浸沒式冷卻,即將電腦本身放置在裝有冷卻液的大型容器中。微雲端計算子公司Azure的技術長Mark Russinovich說,雖然這種方法展現出初步的希望,但人們對其中經常使用的化學物質存在環境方面的擔憂。
與此同時,一些公司正在使用能夠承受更高溫度且不需要太多冷卻的運算設備。Google表示,其數據中心的能效已經是典型數據中心的1.8倍,這在一定程度上是通過將內部溫度提高到華氏80度(攝氏26.67度)實現的。根據能源之星計劃,數據中心每升溫1華氏度,就能節省4%-5%的能源成本。
(相關報導:
華爾街日報》Nvidia登頂之後,是否只剩下坡路可走?
|
更多文章
)