輝達秀最強AI 晶片 宣佈Rubin平臺量產 臺積、鴻海、廣達等吃補

輝達執行長黃仁勳 (路透)

輝達執行長黃仁勳5日宣佈,最新Rubin平臺AI晶片已進入量產,運算速度將是Blackwell平臺倍數以上增長,且成本更低,亞馬遜AWS、微軟、Google等雲端服務供應商(CSP)最快下半年導入。

輝達再推「地表最強AI晶片」,開啓AI全新世代。法人看好,臺積電(2330)、鴻海(2317)、廣達(2382)及緯創(3231)等供應鏈將跟着衝一波,2026年仍將是豐收的一年。

美國消費性電子展(CES 2026)將於6日至9日開跑,黃仁勳在開展前一天以「what's next in AI(人工智慧的下一步)」爲主題,發表演講。

面對AI泡沫言論,黃仁勳高喊:「AI的競賽已經開跑」,目前價值10兆美元的傳統科技市場正在大幅轉型,未來都將以AI爲基礎進行升級,「每個人都在努力邁向下一階段」,預期AI運算模型及市場需求仍持續爆炸性成長,使得AI基礎建設市場呈現快速上升趨勢,Rubin平臺的問世將會替AI運算能力帶來新世代標準。

黃仁勳表示,全新Rubin平臺已經開始進入量產階段,預計下半年出貨客戶。Rubin平臺包含六大晶片,除了GPU的Rubin之外,另外還包含CPU Vera、NVLink 6交換器(Switch)、高速網路架構ConnectX-9 SuperNIC、加速雲端資料處理的Bluefield-4運算晶片,以及Spectrum-6乙太網路交換器。

黃仁勳透露,Rubin的運算能力是現有Blackwell的倍數以上,推論效能爲Blackwell的五倍,訓練效能更有3.5倍成長;此外,新的CPU擁有88個核心,效能是原先的兩倍。

他強調,Rubin的每單位符元(token)運算成本僅先前產品的十分之一,在訓練當前市場主流的混合專家模型(MoE)所需的GPU數量僅需要過去的四分之一,節省成本之餘,更讓運算效能大幅提升。

輝達Rubin平臺晶片由臺積電以3奈米獨家操刀,並整合CoWoS先進封裝製程。業界傳出,臺積電CoWoS先進封裝製程已經滿到今年底,所有協力封測廠也開始全力支援,後續將有望同步受惠。

黃仁勳並秀出Rubin平臺打造的叢集AI伺服器平臺,由36顆Vera、72顆Rubin加上NVLink 6交換器、Bluefield-4運算晶片打造成16櫃的AI伺服器運算系統。

黃仁勳強調,Rubin打造的AI伺服器與以往最大不同就是省去大量纜線,因此機殼也端出全新設計,讓組裝一櫃伺服器的時間大幅縮短,若以10%的液冷AI伺服器來計算,最短時間僅需五分鐘。