HBM是什麼?AI運算為何少不了它?一文看懂關鍵零組件的成長機會、概念股

資料中心廣為建設、AI應用盛行之際,高頻寬記憶體(HBM)用量預估將遽增(圖片來源:美光科技官網)

人工智慧(AI)的興起推升高效能運算需求,業界尋求突破傳統記憶體技術的極限。因此,高頻寬記憶體(HBM)躍升為關鍵元件,負責處理AI高負載工作下的高速資料處理,同時保有高強度的傳輸速度。 

小小一片卻能作為AI應用的動力來源 

HBM主要應用於資料密集型任務,可加速處理的特性,使其非常適合深度學習和機器學習等人工智慧應用,如高效能計算(HPC)、人工智慧(AI)、圖形處理單元(GPU)和伺服器等領域。這些應用程式依賴龐大的資料集和複雜的演算法,需要快如閃電的資料存取和處理能力,而這正是HBM的優勢所在。 

AI伺服器是HBM應用的最佳範例,也是開發與部署AI基礎設施的主力。美光副總裁暨運算與網路事業部運算產品事業群總經瓦伊迪亞納坦(Praveen Vaidyanathan)指出,AI伺服器所需的記憶體容量是傳統伺服器的5到6倍。而HBM的高頻寬和容量,可順暢處理大量資料集和複雜運算,滿足AI伺服器的硬體需求。 

除了AI伺服器之外,HBM在汽車產業也占一席之地,自駕車和駕駛輔助系統(ADAS)開發就是一例。自駕車和駕駛輔助系統在駕駛期間會收發巨量資訊,須仰賴如HBM的高速資料處理能力,以回應複雜計算和即時資料統整需求。產業市調機構Mordor Intelligence指出,伴隨AI和無人車應用的崛起,HBM市場規模不斷擴張,預期未來5年的CAGR(年均複合增長率)將超過25%。 

HBM 在記憶體領域的優勢 

HBM 的主要優勢在於其3D堆疊架構。傳統DRAM記憶體是將晶片平放在電路板上;而HBM則是將多片DRAM晶片垂直堆疊,並以矽穿孔(Through Silicon Vias, TSV)技術連接,使晶片更加輕薄。這種創新的設計有兩個優點: 首先是增加頻寬,其垂直堆疊架構使得記憶體和處理器之間介面更寬,創造了「門」讓資料同時傳輸。這可大幅增加頻寬,使資料傳輸速度比傳統DRAM快上許多。 

再者是縮小使用空間:垂直堆疊記憶體晶片之後,HBM使用的空間傳統DRAM模組小。這對於空間有限的應用特別有利,例如講求尺寸精巧的AI晶片;考量到資料中心動輒布置成千上萬個機櫃,導入HBM可以節省的空間將特別可觀,這也是提高終端消費者空間使用效率的有利因素。 

SK海力士、三星、美光,主導HBM全球供應 

全球HBM市場領導者目前共有三家主要廠商,分別是:SK海力士(SK Hynix)、三星(Samsung)和美光(Micron)。 

SK海力士是目前HBM市占率第一的廠商,SK海力士是業界率先觀察到HBM市場潛力的業者,持續開發相關堆疊技術,使得SK海力士逐漸成為市場領導者。 

整體而言,雖然三星仍是DRAM市場霸主,但他們對HBM的洞察顯然不夠深刻,才會讓競爭力相形較弱的SK海力士後來居上,反而領先三星建立起先行者優勢。目前三星正急起直追、擴大HBM產量,但近期送交輝達驗證的HBM產品據傳有過熱問題,若以良率看來,三星正陷入一場艱苦的追逐戰。

至於美光是三家領導品牌中市占率最小的一家,落後SK海力士和三星。然而美光正積極在HBM市場上競爭,以HBM3E收獲輝達H200的GPU訂單,以至於其他科技公司的大單。美光正利用其良率較高的優勢,擴大市場占有率。 

台灣HBM相關企業和記憶體概念股 

力成(6239) 

力成本就是記憶體封測市場領導廠商,今年開始積極參與HBM的封裝和測試;力成以原有的技術實力和市場地位,正努力成為HBM產業鏈中的要角。 

華邦電(2344)、南亞科(2408) 

華邦電及南科為台灣記憶體大廠,專注於DDR5、DDR4產品。由於記憶體製造商紛紛投入HBM市場,而DDR5的需求仍強勁,兩廠可望提高自身定價能力。 

HBM記憶體在AI浪潮下的重要性日益凸顯,其高頻寬、低延遲和高效能的特性使其成為高效能計算和大數據處理的關鍵技術。三星、SK海力士和美光等主要製造商在HBM市場中佔據重要地位,而力成等台灣廠商也在記憶體市場中表現亮眼。未來,隨著技術的不斷進步和市場需求的增長,HBM記憶體將在更多領域中發揮重要作用。  (相關報導: AI到底幫微軟賺多少錢?部門業績歸屬微調,讓投資者看更清楚 更多文章


責任編輯/周岐原