整理包/Gemini 3超驚艷!有望撼動輝達 GPU 霸主地位的 TPU 是什麼 ?Google 身價暴漲、哪些供應鏈吃香?
谷歌推出Gemini 3獲得好評,使用自行研發的TPU,傳出Meta也可能採購。(路透)
隨着生成式AI與大型語言模型迅速擴張,市場對高效能運算晶片的需求大增,過去一面倒依賴輝達GPU的格局,正逐漸被Google自研TPU等ASIC專用晶片改寫。TPU主打更高能效與更低成本,並結合雲端服務與自家生態系,成爲科技巨頭角力的新戰場。對此,《經濟日報》整理相關資訊,從TPU技術特色、與GPU的差異,到臺廠供應鏈與概念股佈局,協助投資人掌握AI運算版圖變化及後續產業機會。
TPU(Tensor Processing Unit)是由 Google 自行設計的專用積體電路(ASIC, Application-Specific Integrated Circuit),Google 表示,爲了處理其服務(如語音辨識、影像處理、大規模推薦系統)中的機器學習運算需求,傳統 CPU/GPU 架構效率不敷使用,因此從 2015 年起內部開始部署 TPU,專門用於加速機器學習(ML)/深度學習模型的訓練與推論。
Google 在 2025 年公佈第七代TPU,名爲 TPU v7 Ironwood,這一代設計特別針對「推論」(inference)場景,而非僅訓練。其中,亮點在於,可串接至 9,216 顆晶片一個 Pod(集羣),顯示極大規模運算能力,且每片晶片配備高頻寬記憶體(HBM3e或類似)與進階互連技術,以支援巨量運算/資料搬移。
此外,TPU又屬於自研晶片中的的一環,特殊應用積體電路(Application-Specific Integrated Circuit;ASIC)就是「爲特定用途量身打造的晶片」,不像 CPU 或 GPU 那樣什麼都能跑,而是把某種固定任務寫死在硬體裡。
而TPU在專門的環境下最大的優勢在於,他不僅跑得更快、更省電、成本更低,以及效率也更高。對比GPU擅長重複、並行的大量計算,ASI就像是爲某一件事打造的「專業機械」,只做那件事,但做得極快、極省電。
目前除了 Google,包含亞馬遜雲端(Amazon Web Services ;AWS)、Meta等大型科技公司,也在積極佈局或已經推出類似專用 AI 加速、ASIC晶片。
Google 今年5月推出Ironwood TPU。彭博資訊
首先,TPU 作爲Google 的自研晶片,主要運作的模組範圍爲Google Cloud,根據數據,但特定情況下, TPU相較於同時代GPU在推論上,最高可達15至 30倍以上的性能/功耗優勢。
不過,也是因爲這樣,TPU的生態系統較爲「集中」,主要是在Google的雲端服務中提供,並且與TensorFlow/JAX深度整合。
而GPU在軟體生態、開發者支援、模型種類與雲端/本地部署的可選擇性上,較 TPU 廣泛,且包含輝達(NVIDIA)超微(AMD)都積極搶攻,若需求較爲「多樣化」、「不同模型框架(如:PyTorch)」、「需要靈活調整」或「設備自有/非雲端專用」的情境,GPU較具優勢。
⚙️ TPU 與 GPU 差異比較(用途、架構、優缺點一次看)
項目 TPU(Google) GPU(NVIDIA 等)
項目
TPU(Google)
GPU(NVIDIA 等)
注:TPU 與 GPU 的選擇取決於應用需求。若爲大規模深度學習訓練,TPU 具效率優勢;需兼顧彈性與相容性時,GPU 較爲通用。
谷歌推出Gemini 3獲得好評,使用自行研發的TPU,傳出Meta也可能採購,導致目前獨佔AI晶片市場的輝達股價大跌,但輝達執行長黃仁勳似乎不擔心。(法新社)
大型模型(LLM)從百億、千億參數跨向兆級,運算需求倍數成長,而GPU 雖通用,但無法持續以同樣速度提升效能/瓦(performance per watt),對此,在資料中心耗電與散熱成本暴增的壓力下,市場需要更高能效、更高密度 的運算晶片,讓ASIC逐步受到重視,晶片需求也跟着漸增。
此外,也多虧AI規模擴張效果顯著,在演算法趨於穩定的情況下,「把固定運算寫死在硬體中」的ASIC就變得值得投資。再加上,目前市場中的GPU霸主輝達 高階晶片如H100、H200、GB200、GB300價格昂貴且供應吃緊,同時,爲了降低對輝達的依賴,也使TPU等自研晶片成爲相對較好的選擇,進而成爲各大科技廠、雲端廠角逐的新戰場。
至於,是否能夠因此撼動輝達在AI伺服器,以及GPU上的地位?這個答案可能要再過個幾年再來討論,其中,最大的原因在於,輝達靠着自家的CUDA生態系打遍天下無敵手,加上晶片、伺服器綁定生態系的「標配」,形成「綁定效應」。(延伸閱讀:AI 霸主不保?輝達火速回應:樂見Google 成功 但我們在業界「領先一代」)
爲此,亞馬遜推出Trainium、Inferentia,Google自研TPU晶片+自家生態系,Meta也有MTIA平臺系統,以及像是Microsoft則有自研 AI 加速器(Athena)
尤其,除了減少自家在AI上的訓練成本外,也藉由資料中心基礎設施工程,TPU + 網路架構 + 整合式軟體,讓TPU 成爲 Google 在雲端 AI 基礎建設的「底層砲臺」。不過,儘管TPU技術強,但TPU不是市場商品,而是Google自用硬體,因此,輝達在「商業市場」仍穩居壟斷式地位,但未來發展仍可期。
科技新聞網站報導,Google專爲AI推論打造的「張量處理器」(TPU)獲得Meta洽談採購,可能進一步吃下輝達的AI晶片市場。歐新社
Google TPU技術持續推進,帶動臺系供應鏈關注度升高,相關概念股涵蓋晶圓代工、材料、載板、測試設備到伺服器組裝等多個環節。其中,臺積電(2330)爲Google TPU核心晶片的主要先進製程代工廠,居於概念股名單首位;聯亞(3081)則是Google TPU v7平臺驗證階段的重要供應商。
在材料端,金像電(2368)提供TPU v7 30至40層的高階板材,臺光電(2383)負責TPU所需的高階CCL材料M8。組裝與系統端部分,英業達(2356)是TPU 6的第二大供貨臺廠,欣興(3037)則供應 Google伺服器所需的載板。
測試與驗證相關廠商包含精測(6510)與旺矽(6223),皆爲TPU v7的供應商;另外,精成科(6191)透過併購日商Lincstech,間接切入Google TPU供應鏈。IC設計端則由創意(3443)承接Google Axion CPU製程設計服務,聯發科(2454)也與Google合作參與TPU v7與v8的開發。
此外,光聖(6442)提供TPU所需的高速傳輸元件,完整串聯臺灣在高效能運算與AI加速晶片供應鏈的角色。