ASIC鏈 戰力大對決 誰能以最低功耗、提供最高運算價值?

IC設計示意圖。(美聯社)

AI模型規模與應用場景不斷擴大,以更高效率、更低能耗提供穩定算力,成爲雲端業者與科技巨頭的共同課題。爲特定工作量量身打造的ASIC,憑藉高度客製化與系統協同設計優勢,正成爲AI基礎建設中不可或缺的關鍵角色。在這波趨勢下,臺灣IC設計產業的戰略地位顯著提升。

本週三出刊的《先探投資週刊》2390期就要來跟大家聊起一個新的概念,目前的AI算力市場正處於一個微妙的轉折點,特別是全球雲端服務龍頭如谷歌、亞馬遜、Meta及微軟,雖然仍是輝達的最大客戶,但內心卻充滿了被綁架的集體焦慮;簡單來說,對這些巨頭而言,GPU的能力固然強大,但在特定的自家開發大型語言模型運算下,通用型晶片的能耗與成本未必最優。這時候ASIC的崛起,正是這場去算力革命運動的關鍵!

在生成式AI引爆全球科技競賽之後,算力已成爲攸關國家戰略、產業主導權與企業生死存亡的核心軍備。從ChatGPT掀起第一波浪潮,到各國政府、科技巨頭競相投入大型語言模型(LLM)與加速運算架構,隨着投入金額與能源消耗快速攀升,市場也意識到,真正決定AI效能上限與成本結構的,並非單純堆疊通用型GPU,而是能否打造「爲特定工作量而生」的專用晶片。ASIC(特殊應用積體電路)正是在這場算力決戰中,市場正着眼的焦點所在。

ASIC重塑算力版圖

ASIC的核心在於以高度客製化的硬體設計,換取遠高於通用晶片的效能功耗比與長期成本優勢。不同於GPU的廣泛適用性,從架構設計階段即深度綁定目標工作負載,能精準配置運算單元、記憶體層級與資料通道,最大程度降低無效運算與能源浪費,這使ASIC在大規模、長時間運行的AI訓練與推論場景中,能顯著拉開與GPU的成本差距。因而成爲雲端服務商(CSP)與大型科技公司在追求極致能效比與總擁有成本(TCO)優化下的必然選擇。

根據研究機構Counterpoint Research報告指出,預計到二七年,全球伺服器專用AI伺服器運算ASIC出貨量將比二四年成長三倍;另外,預計到二八年,全球資料中心AI伺服器運算ASIC晶片的出貨量將突破一五○○萬顆,超過資料中心GPU的出貨量。這一爆炸性成長的背後,是對Google TPU基礎設施的強勁需求、AWS Trainium叢集的持續擴展,以及Meta和微軟隨着其內部晶片產品組合的擴展而帶來的產能提升。

目前Google的TPU v7e已進入關鍵量產階段,而微軟的Maia系列與Meta的MTIA也已在雲端機房大規模部署,預期至二七年將出現具規模的出貨量成長。而在這樣的生態轉變中,臺灣的ASIC業者在此一價值鏈中的角色,已從過去被動承接設計委託的「代工設計」,轉型爲深度參與架構定義與系統最佳化的系統協同設計(Co-design)核心夥伴。對於高度複雜、投資金額動輒數億美元的AI ASIC專案而言,能否在早期即完成軟硬體協同設計,往往決定了專案的成敗,而這正是臺灣業者長期累積的關鍵能力所在。

聯發科衝刺ASIC成新火車頭

放眼全球ASIC產業格局,博通長期被視爲雲端AI ASIC的首選供應商,憑藉其完整的IP組合、先進製程經驗與和CSP的深厚合作關係,佔據領先地位。然而,Counterpoint Research指出,博通正面臨來自新興陣營日益升高的競爭壓力,其中,由Google與聯發科形成的策略聯盟,已成爲最受矚目的挑戰者之一。

聯發科長期深耕行動通訊市場,累積了龐大的IP庫,特別是在高速傳輸介面(SerDes)、先進製程SoC整合與低功耗架構設計上的深厚底蘊,正好切中雲端服務商在打造AI ASIC時的核心需求。對雲端業者而言,新一代AI ASIC必須同時整合高速互連、電源管理、封裝與散熱設計的系統級解決方案,聯發科憑藉其在先進製程節點的實作經驗,能在維持高效能的同時,協助客戶將功耗與能耗效率優化至極限。

本文完整報導、發燒個股動態,以及更多第一手臺股投資訊息,請見先探投資週刊2390期。