NVIDIA執行長黃仁勳今(19)日於Computex 2025主題演講中,重磅揭示多項AI硬體新產品,涵蓋最新旗艦晶片平台Grace Blackwell GB300、開放式架構模組NVLink Fusion、AI原生伺服器DGX Spark,以及面向企業AI應用的全新運算架構與AI平台,勾勒出AI工廠(AI Factory)從核心到邊緣的完整硬體藍圖。
GB300正式亮相 AI推論效能提升1.5倍
在AI推論與生成式AI應用高速成長背景下,黃仁勳宣布GB300正式登場。該平台延續Grace Blackwell架構,透過晶片升級、HBM記憶體擴充與全液冷設計,使推論效能比前代提升1.5倍,HBM記憶體容量提升兩倍,能有效支援兆參數等級的大型語言模型(LLM)部署與推論。
他指出,單一GB300節點即可達到40 Petaflops運算力,等同於2018年Sierra超級電腦(當時採用1.8萬顆GPU)的效能,顯示NVIDIA在AI運算能效與密度上持續打破摩爾定律界限。
NVLink Fusion開放合作 打造客製AI超級電腦
面對雲端服務商與大型科技公司對於AI基礎建設的客製化需求,NVIDIA同步發表NVLink Fusion架構,開放NVLink晶粒(chiplet)模組給第三方CPU、ASIC或TPU設計商,使其可與NVIDIA GPU高度整合,構建自主AI超級電腦。
目前合作夥伴已涵蓋: • ASIC與IP設計商:聯發科(MediaTek)、Marvell、Astera Labs、Cadence、Synopsys • CPU開發商:Fujitsu、Qualcomm • 系統整合商:Dell、HPE、Gigabyte、QCT等
黃仁勳強調:「未來每一家雲端與運算服務提供者,都將是自己的AI基礎建設商,而我們將提供關鍵的模組與網路連接技術。」
DGX Spark與RTX Pro:從雲端到桌面,AI運算全面下放
除了大型資料中心級AI運算平台,NVIDIA亦宣布面向開發者與企業的兩款新系統: • DGX Spark:定位為AI原生開發伺服器,單機具備1 Petaflop運算力與128GB LPDDR5X記憶體,為AI工程師、研究人員提供高效能私有部署方案。黃仁勳笑言:「今年耶誕節,每個人都可以有一台自己的AI超級電腦。」 • RTX Pro伺服器:搭載8顆Blackwell RTX 6000 GPU與新一代CX8交換晶片,支援x86傳統應用與AI生成工作負載,具備高通量與低延遲並存的特性。黃仁勳指出:「這是企業導入Agentic AI與數位勞工的最佳平台。」
從晶片到整廠輸出 AI工廠成新製造模式
黃仁勳強調,AI不再只是軟體革命,而是重新定義運算與製造邏輯的「新工業革命」,核心便是「AI工廠(AI Factory)」概念。這些工廠不僅生產模型,更透過高效能推論能力,持續輸出語意單位(tokens),成為生產力的新指標。
例如,Grace Blackwell架構所建立的完整運算堆疊: • 晶片層:Blackwell GPU、Grace CPU • 互連層:NVLink Switch、MDLink Chiplet • 運算單元:GB200、GB300模組化節點 • 整體系統:每機櫃功耗達120KW,透過液冷系統運作
從單機到大規模AI工廠,NVIDIA已建立一條貫穿研發、生產與部署的完整生態。
AI硬體生態開放加速 NVIDIA構築產業共創平台
黃仁勳以「AI為基礎設施、工廠、智慧體三合一的系統平台」概念作為總結,指出未來AI系統不再是一家獨大的封閉架構,而是一場開放的產業協作。他強調:「你可以全部使用NVIDIA技術,我會非常開心;但你只用一部分,我也會很開心。」 (相關報導: 核三停機前火力發電高達96%?退將示警1危機:台灣恐整個癱瘓 | 更多文章 )
本次演講不僅揭示NVIDIA在AI晶片、系統與平台層級的全面進展,更釋出開放策略與合作誠意,意圖與全球AI產業共同建構下一波AI工業革命基礎設施。