華爾街日報》AI支出持續高漲!:「這種」AI正成為主流 專家:需求或將激增1兆倍

2025年1月28日。手機螢幕上顯示DeepSeek和ChatGPT的應用程式。(AP)

儘管投資者曾一度感到懷疑,但大型科技公司、各國政府和創業投資風險投資家當前投入人工智慧能(AI)領域的資金已達到空前規模。要理解其中的原因,就需要了解AI本身正在發生的變化。

AI技術正在從傳統的大型語言模型轉向推理模型和AI代理智能體。訓練傳統的大型語言模型(多數AI聊天機器人的免費版本中都會有的那種模型)需要龐大的電力和計算時間。但我們正迅速找到方法來減少人類使用它們時所需耗費的資源量。推理模型是建立在大型語言模型的基礎之上,但不同之處在於,推理模型在實際運行中消耗的微晶片和電力資源要多很多倍。

本文為風傳媒與華爾街日報正式合作授權轉載。加入VVIP會員請點此訂閱:風傳媒・華爾街日報VVIP,獨享全球最低優惠價,暢讀中英日文全版本之華爾街日報,洞悉國際政經最前沿。

自OpenAI在去年9月份預展示了名為o1的首個推理模型以來,其他AI公司一直在爭相發布能夠與之競爭的系統。這其中包括DeepSeek的R1和伊隆・馬斯克(Elon Musk)的xAI,R1在今年年初震撼了AI領域並影響到許多科技和電力公司的估值,xAI則剛剛推出了Grok 3推理模型。

DeepSeek之所以引發了一定程度的恐慌,是因為它表明訓練AI模型的成本可以比其他現有模型低得多,這可能會降低對數據中心和昂貴先進晶片的需求。但DeepSeek真正產生的影響是將AI行業更進一步推向了資源密集型的推理模型,這意味著仍然非常需要計算基礎設施。

由於功能增強,這些推理系統可能很快就將成為人們在許多任務中的默認AI使用方式。OpenAI執行長首席執行官山姆・阿爾特曼(Sam Altman)表示,該公司AI模型的下一個重大升級將包括先進的推理功能。

為什麼推理模型以及包含推理模型的產品(比如「深度研究」工具和AI代理智能體)需要如此多的電力呢?答案在於它們的工作原理。

輝達英偉達(Nvidia)負責AI產品管理的副總裁卡里裡・布里斯基(Kari Briski)在最近的一篇部落格博客文章中寫道,AI推理模型可以輕鬆用掉比傳統大型語言模型多100倍的計算資源。這個倍數來自於推理模型要花費數分鐘甚至數小時與自己對話(並非所有這些對話都能被用戶看到),這構成了一個漫長的「思維鏈」(chain of thought)。模型使用的計算資源量與生成的單詞數量成正比,因此,生成100倍於回答問題所需單詞的推理模型將使用更多得多的電力和其他資源。

當推理模型接入網際網路互聯網時,可能會變得更加耗費資源,比如Google(Google)、OpenAI和Perplexity的「深度研究」模型就是這樣。 (相關報導: 華爾街日報》AI支出持續高漲!:「這種」AI正成為主流 專家:需求或將激增1兆倍 更多文章

這些模型對算力的需求僅僅是個開始。舉個例子,Google、微軟(Microsoft)和Meta Platforms總共計劃在2025年至少花費2150億美元用於資本支出,其中大部分用於搭建AI數據中心。這意味著它們的資本支出將比去年增加45%。