VIP 專屬文章 中美聚焦》窺探中國 AI 和 HBM 技術進展藍圖

美國對中國實施嚴格的晶片出口管制,然而近期的報告結果卻顯示這項管制似乎未達預期,反而加速中國在研究技術上的發展。(示意圖/取自unplash)

本文原先於4月15 日刊登在美國中國科技與政策論壇及Podcast網站《China Talk》,經 Ray Wang 和 Jeffery Su 編譯分析。

──隨著中國對推理與運算能力的需求迅速升溫,搭載 HBM3 的輝達 H20 GPU 已成為最搶手的 AI 加速器。根據先前預測,在新一波禁令實施前,H20 的 2025 整年出貨量曾預估將達 140 萬顆。

──長鑫存儲(CXMT)在高頻寬記憶體(HBM)技術的進展速度超出預期,目前與全球領先廠商的差距已縮小至約 3 到 4 年。公司計畫在 2026 年量產 HBM3,並在 2027年推出 HBM3E,也顯示其 DRAM 技術已大幅進步。

──長鑫存儲(CXMT)仍面臨許多重大障礙,包括:美國對光刻與微影製成設備的出口管制、地緣政治局勢的不穩定、有限的全球市場進入許可權等;屏除上述原因,還有最根本的技術層面,追趕HBM領先公司過程中,技術發展速度仍存在著不確定性。

2024 年 12 月,美國發布出口管制措施,針對中國取得高頻寬記憶體(HBM)以及各類半導體製造設備進行限制,其中包括對高頻寬記憶體(HBM) 製造與封裝至關重要的工具。新規定同時將超過 140 家中國晶片製造商與設備商列入美國商務部(U.S. Department of Commerce)的實體清單(Entity List)。

美國政府希望藉由對高頻寬記憶體(HBM)的關鍵掌控,進一步阻擋中國的人工智慧發展藍圖。高頻寬記憶體(HBM)的全球供應目前主要由三家公司掌握:為SK 海力士(SKHynix)、三星(Samsung)與美光(Micron);另一方面,禁令進一步針對半導體製造設備(Semiconductor Manufacturing Equipments)的限制,也削弱中國自製 HBM 的能力。

圖表
 
圖表
 

HBM可說是現今 AI 加速器訓練大型語言模型的核心關鍵。隨著「推理模型」(reasoningmodels)快速演進、AI 推論技術(inference training)日趨成熟,記憶體的「頻寬」(Bandwidth)與「容量」 (Capacity)變得更加重要,讓 HBM 的地位越來越受重視。

中國在開發 AI 加速器上同樣高度依賴 HBM。舉例來說,華為 (Huawei)最新的 AI 加速器昇腾系列GPU Ascend 910B 與即將推出的 910C,分別搭載了 4 顆與 8 顆 HBM2E。這些HBM晶片大多可能是在 2024 年 12 月出口限制生效前,從三星(Samsung)採購,其餘部分則是在禁令生效後取得 (相關報導: 挑戰輝達與台積電霸主地位!金融時報揭華為野心:自製AI晶片、自建供應鏈抗美制裁 更多文章

中國其他 GPU 大廠,如壁仞(Biren)、燧原(Enflame)與瀚博半導體(VastaiTech) 等,同樣可能使用來自 SK 海力士或三星的 HBM2 與 HBM2E。以壁仞為例,其 2022 年推出的BR100 GPU 搭載了 4 顆 HBM2E;燧原則在 2021 年底推出的 DTU 使用了 2 顆 HBM2,顯示中國各大AI晶片公司同樣高度依賴 HBM 記憶體。