ASIC滲透率加速起飛
【文/吳旻蓁】
隨着AI應用邁向推論與落地,算力需求轉向低成本、高效率,帶動雲端服務商加速導入ASIC,世芯KY、創意迎接成長動能。
AI持續成爲二六年資本市場的核心焦點,幾乎已是板上釘釘之事。從美國科技巨頭積極攻城掠地、上修資本支出,到全球半導體供應鏈對AI訂單能見度的共識等,都讓市場早已認定AI應用是一條正在持續拓展的長期成長曲線。在這樣的前提下,資本市場自然不斷尋找下一層可享有結構變化的投資目標。而隨着大語言模型(LLM)快速邁向推理(Inference)與應用階段、AI算力需求從雲端向下滲透至邊緣設備,市場也預期特殊應用晶片(ASIC)將在下一代AI伺服器架構中扮演更加關鍵的角色。
相較於過去兩年圍繞着GPU產能與算力規模的討論,在AI推論逐漸成爲算力需求主流的過程中,能否以更低成本、更高效率被大規模部署成爲市場重點討論議題之一,這正是ASIC滲透率開始加速提升的關鍵背景。
CSP加速ASIC自研
因不同於模型訓練需要高度彈性與通用性的算力架構,推論工作負載具有高度重複、可預測且長時間運行的特性,只要模型與服務流程確立,相關運算路徑便相對固定。在這樣的條件下,針對特定運算模式量身打造的ASIC,反而能在效能功耗比、單位推論成本與整體持有成本(TCO)上展現明顯優勢,成爲雲端服務商與大型平臺壓低AI營運成本的重要工具。
再者,各大CSP廠也期待透過自研ASIC來降低對輝達GPU的依賴。近期,Google所推出、以自家TPU訓練的Gemini 3 Pro模型大受好評,也帶動市場對ASIC市場前景的抱持樂觀期待;而Google與博通攜手合作開發的TPU v7,預計二六年將逐步放量,甚至傳出Meta可能開始租用Google Cloud TPU。市調機構預估Google TPU出貨量今年可望年增逾四○%;另外,法人指出,Google TPU二六年將邁入第八代,預期第三季開始量產,規模有望在二七年達五○○萬顆,二八年進一步提高至七○○萬顆,較先前大幅上修。
根據研究機構TrendForce預測,以AI伺服器總量的成長率來看,CSP自研的ASIC類別在二六年成長率將達四四.六%,超越GPU的十六.一%。另外,根據產業預估,全球AI晶片需求將從二五年的一○○○萬顆,成長至二七年的一七○○萬顆,其中ASIC的滲透率將由三八%提升至四五%,在在都顯示在未來的AI算力增量中,ASIC將扮演關鍵角色。
放眼國際市場,通訊晶片巨頭博通(Broadcom)在雲端客製化AI晶片(XPU)與高階交換器、光通訊產品上的佈局,正好切中CSP在推論階段對低延遲、高頻寬與能源效率的核心需求。隨着AI推論流量持續放大,資料中心內部與跨機櫃的網路架構重要性同步提升,也使博通能夠以系統級方案深化與雲端客戶的合作關係。專家表示,由於ASIC的效益需搭配資料中心網路架構同步優化,故相關產品不再是單點銷售,而是以整體解決方案形式與客戶深度合作,進一步提升營收黏着度。
博通、邁威爾領軍
分析師近來紛紛調升博通評等與目標價,法人解釋,過去市場將博通視爲穩健的通訊與軟體股,但近期華爾街將其重新定位爲「AI核心持股」,因其在AI伺服器領域獲得大額訂單,特別是特別是乙太網路交換器與客製化運算晶片。博通自二二年開始以雙主軸轉型策略爲核心,除強化AI晶片業務,與Google、Meta、ByteDance等大型雲端平臺合作開發XPU外,另一方面則透過併購VMware進軍基礎設施軟體市場,進一步提升高毛利收入來源。
【全文詳情及圖表請見《先探投資週刊》2386期;訂閱先探投資週刊電子版】