AI 記憶體下一代黑馬來了?法人點名兩家臺廠可望受惠

隨人工智慧(AI)模型規模與推論上下文快速擴張,除HBM已成爲AI加速器標準配備外,法人預期,HBF將是AI Memory Wall的新一代解決方案。路透

隨人工智慧(AI)模型規模與推論上下文快速擴張,除HBM已成爲AI加速器標準配備外,法人預期,HBF將是AI Memory Wall的新一代解決方案,約莫2027年可進入量產,臺廠中以羣聯(8299)、宜鼎(5289)等兩家最有機會受惠。

金控旗下投顧法人分析,HBF首波鎖定AI inference工作負載,目標在特定推論場景中提供可比HBM的有效頻寬,同時單一裝置容量可達HBM的8至16倍,並具備明顯較低的cost per bit與非揮發性優勢,適合模型常駐、系統啓動等應用。

SanDisk、SK海力士已合作推動 HBF 標準,預期下半年提供samples、2027年初出現首批系統,但包括PCIe/memory extension等不同實作路線仍並行發展,顯示HBF尚處於架構探索與標準收斂階段。

鑑於目前傳統SRAM、HBM與SSD架構已難以同時滿足AI模型的頻寬、容量與成本需求,法人預期HBF與HBM更可能呈現互補關係,例如HBM持續承擔低延遲、動態工作負載,HBF負責模型權重、推論階段KV cache等容量導向資料層,使HBM專注於延遲敏感計算,未來亦可能採混合式記憶體架構。

HBF以inference-first 導入,透過可預測、以讀取爲主的存取型態與軟硬體協同設計,彌補NAND在延遲與壽命上的限制;最後能否進入主流平臺,將取決於標準化進展、生態系採用度,以及AI工作負載是否持續朝容量受限方向演進。

法人表示,若HBF技術順利成熟,記憶體架構將進一步走向多層化,新增一個兼顧容量與頻寬的near-memory層,並帶動控制器、韌體與系統整合的重要性提升,未來落地量產並被AI系統採用後,具備控制器與模組整合能力的記憶體相關業者受惠程度相對較高。