整理包/黃仁勳 CES 專講說了什麼?最新 Rubin 晶片亮點、臺鏈哪些受惠股?八大重點一次看

黃仁勳出席2026CES舉行演說,他解釋新一代Vera Rubin一臺(Tray)可以5分鐘組合好,要垂直整合的原因是AI產業快速變化,如五層蛋糕。 圖/取自官網截圖

在CES展前專講上,輝達(NVIDIA)創辦人暨執行長黃仁勳以「新年第一場主題演講」開場,指出電腦產業每10到15年會出現一次重大平臺轉移(platform shift),而當前正同時發生兩個平臺轉移:應用將建立在AI之上,以及軟體開發與運行方式的根本改變。他強調,產業正從「寫程式」走向「訓練程式」,從 CPU 走向 GPU,並由 AI 即時生成內容,推動整個運算堆疊重新被定義。此外,《經濟日報》也整理相關資訊,帶讀者一同瞭解黃仁勳專講內容。

黃仁勳形容,2025 年代理AI快速普及,且逐步具備推理、查找資料、使用工具、規劃、模擬結果等能力。同時,舉例稱某些代理式工具改變了輝達內部軟體開發方式。此外,黃仁勳提及「與世界互動的AI」(physical AI)與「理解物理定律的AI」(AI physics),並稱其爲下一波重要方向。

黃仁勳還表示,過去平臺轉移的路徑從「大型主機到PC」、從「網際網路到雲端」,最後,再到行動裝置;而這一次不同之處在於:

1.應用將建立在 AI之上:一開始人們以爲AI本身就是應用,但接下來「會在AI之上再建立應用」

2.軟體開發方式改變:不再以傳統方式程式化,而是以訓練方式獲得能力;不在CPU上跑,而是在GPU上跑

3.內容生成模式改變:應用不再是「預先編譯、固定輸出」,而是理解情境後每次重新生成「每一個像素、每一個token」

黃仁勳以此推論,過去十年累積的龐大運算產業資本正在被「現代化」到 AI 新架構;資金來源包括:既有運算現代化、創投投入,以及各產業研發預算從傳統方法轉向AI方法。

黃仁勳提到,輝達近年建置並運行自家AI超級電腦(DGX cloud),目的不是要「經營雲端業務」,而是用來開發自家開放模型。他列舉多個領域的模型工作,包括生物、氣候/天氣預測、長文本推理速度等,並強調這些模型與工具「開放給世界」,讓企業可基於開放模型做衍生版本,同時提供涵蓋資料處理、生成、訓練、評估、護欄到部署的整套AI生命週期管理函式庫。

他也補充,輝達的模型在多個排行榜上名列前茅,並特別提到文件(PDF)解析、語音辨識、語意/AI 搜尋等能力,核心目的在於支援「AI 代理」應用。

黃仁勳表示,AI代理的關鍵在於推理與「先研究再回答」,並指出AI不可能記住「未來」與「當下」的所有資訊,因此必須透過工具與研究讓回答有依據。

他提出對未來AI應用架構的描述:

多模態(multimodal):同時理解語音、影像、文字、影片、3D等。

多模型(multi-model):不同任務用最合適的模型;必要時同時調用多個模型。

多雲(multicloud)與混合雲(hybrid cloud):模型與資料分佈在不同雲、企業端或邊緣端,應用必須天然支援跨環境運行。

模型路由器(router):用意圖導向的路由器決定任務該用哪個模型;需要隱私的工作留在本地開放模型,其餘可呼叫前沿模型。

談到物理AI,黃仁勳指出AI若要從螢幕走進真實世界,必須理解常識物理(如物體恆常、因果、摩擦、重力、慣性),而真實世界資料既昂貴又不足,必須靠模擬與合成資料來補足。

他提出物理AI的基本系統需要「三臺電腦」:

訓練電腦:用來訓練模型

推論/邊緣電腦:部署在車、機器人、工廠等現場

模擬電腦:用於仿真世界反應,以評估 AI 行爲是否合理

他提及多個支撐物理 AI 的關鍵堆疊與平臺:Omniverse(數位分身與物理模擬)、Cosmos(世界基礎模型)、Isaac Sim/Isaac Lab(機器人模擬)、以及機器人相關模型(如 Groot 等)。

輝達執行長黃仁勳宣佈,輝達推出自動車平臺率先導入賓士的CLA系列,全球首輛L2++(自動駕駛等級)的自駕車本季首先在美國上路。特派記者簡永祥/攝影

黃仁勳宣佈輝達推出Alpamayo自駕車平臺,攜手賓士等車廠,宣告完成已完成開發會「思考」的Alpamayo模式平臺,推進自駕技術和機器人自主技術。

黃仁勳並以賓士將輝達此平臺率先導入CLA車列,推出全球第一臺L2++全自駕的轎車,預定本季於美國正式上路、歐洲將緊接著於第2季上路;第3、第4季進入亞洲市場。

黃仁勳表示,Alpamayo具備高度自主決策能力。每輛車皆配備多樣化、冗餘設計的感測器,並採用雙軌安全架構:主系統由Alpamayo執行,輔以完全可追溯、可驗證的傳統自動駕駛軟體堆疊作爲安全防護。策略與安全評估系統會動態判斷路況,必要時自動切換至保守模式,確保駕駛安全。這套設計使Mercedes-Benz CLA成爲全球唯一從晶片、系統到每行程式碼均通過安全認證的車款。

他並強調這項開放架構,還採用專爲機器人與自動駕駛設計的雙ORIG與雙FOUR處理器,並整合端到端模擬、合成資料生成及訓練流程。這套方法同樣適用於其他機器人系統,包括移動型機器人、機械手臂甚至人形機器人。

輝達表示,潛在用戶可以用Alpamayo模型自行再訓練。這項免費提供的工具旨在創造出能自行設法擺脫突發狀況的汽車,例如交通號誌故障。

他說:「想像有一天路上會有10億輛車都能自動駕駛。」

黃仁勳在今年在CES,首度亮相全新開源AI模型家族「Alpamayo」,這是輝達專爲自駕車開發的全新開放式平臺。記者簡永祥/攝影

黃仁勳公佈包括Boston Dynamics、Caterpillar、Franka Robotics、Humanoid、LG 電子與NEURA Robotics等全球產業領導者,正運用NVIDIA機器人技術平臺首次推出新的AI驅動機器人。

黃仁勳並透過高解析度螢幕器秀出十多款機器人時說:「機器人技術的 ChatGPT時刻已然到來!」。

輝達正在打造開放式模型,讓開發人員繞過得消耗大量資源的預訓練,並專注於打造新一代AI機器人與自主機器, 包括讓智慧機器在物理世界像人類一樣看見、理解並採取行動。另也運用NVIDIA Isaac GR00T N1.6的開放式推理視覺語言行動模型(VLA),專爲人形機器人設計,可解鎖全身控制,並使用NVIDIA Cosmos Reason實現更佳的推理與脈絡理解。

輝達發佈全新物理 AI 模型,並攜手全球合作伙伴揭曉新一代機器人。圖/輝達提供

黃仁勳並羅列包括Franka Robotics、NEURA Robotics與Humanoid正使用運用GR00T的工作流程來模擬、訓練及驗證機器人的新行爲;Salesforce正運用Agentforce、Cosmos Reason 和 NVIDIA Blueprint進行影片搜尋與摘要,以分析機器人拍攝的影片片段,將事件解決時間縮短二倍。

另外,LEM Surgical也正運用NVIDIA Isaac for Healthcare與Cosmos Transfer,訓練採用NVIDIA Jetson AGX Thor與Holoscan的Dynamis手術機器人上的自主手臂。XRlabs正運用Thor與Isaac for Healthcare,讓Olympus的ORBEYE外視鏡得以利用即時AI分析爲外科醫生提供指導。

黃仁勳指出,測試時間擴展(test-time scaling)使每年所需token數量平均增長5倍,同時上一代AI token成本每年下降約10倍。NVIDIA強調,推進運算技術每年都不能落後,這正是Vera Rubin誕生的核心原因。

輝達(Nvidia)執行長黃仁勳在CES上介紹Rubin GPU 與 Vera CPU。法新社

黃仁勳指出,Rubin是輝達最新一代加速器,在訓練AI軟體方面,其效能比前一代Blackwell晶片提升3.5倍,在執行AI軟體時則快 5 倍。此外,新的中央處理器(CPU)擁有88個核心,效能是原先的兩倍。

不僅如此,黃仁勳說明,Vera Rubin AI超級電腦, 採用六顆晶片架構,由Vera CPU與Rubin GPU共同設計,可雙向、低延遲共享資料,並以17000個元件精密組裝而成。系統可提供100 petaflops的AI運算能力,是前一代的五倍。

ConnectX-9提供每顆GPU 1.6 Tbps的擴展頻寬,BlueField-4 DPU負責卸載儲存與資安工作,確保運算資源專注於AI。

全新Vera Rubin計算模組無纜線、無風扇、無水管設計,整體系統包括一顆BlueField-4 DPU、八張 ConnectX-9網卡、兩顆Vera CPU與四顆Rubin GPU。

在資料互聯方面,Vera Rubing導入第六代NVLink交換器,可連接18個運算節點,支援最多72顆Rubin GPU同步運作,資料傳輸量超過全球網際網路總和。配合全球首款512通道、200Gb共封裝光學乙太網路交換器Spectrum-X,能將數千機櫃組成完整的AI工廠。

輝達新一代AI晶片Vera Rubin 以提出暗物質觀測的科學家 Vera Rubin 命名,象徵突破性的探索精神與技術前沿。記者簡永祥/攝影

Rubin GPU在記憶體規格上首度推出HBM4記憶體。其中,HBM4頻寬達每秒22TB,較上一代Blackwell的8TB/s 提升2.8倍。單顆Rubin GPU整合8個HBM4堆棧,總容量達288GB,並搭配NVLink 6互聯技術,使GPU間通訊頻寬達3.6TB/s。

在系統層級,72顆GPU組成的Vera Rubin NVL72機架,總記憶體頻寬可達1.6PB/s,較Blackwell平臺提升近兩倍。至於算力表現,Rubin GPU的NVFP4推理性能達50 PFLOPS、訓練性能達35 PFLOPS,分別爲Blackwell的5倍與3.5倍。

晶片製程

傳出輝達電力革命將再進化,力推AI伺服器電源管理IC升級,未來800V的高壓直流(HVDC)元件將成市場趨勢,整合元件(IDM)大廠爲搶攻這波新商機,將導入當前先進製程正熱的晶背供電(BSPD)製程。

臺廠「晶背供電四強」中砂(1560)、昇陽半(8028)、天虹(6937)、頌勝(7768)將成爲主要大贏家,另還有漢磊(3707)、嘉晶(3016)等有望成爲相關IDM大廠將擴大委外代工需求、釋單的首選。此外,晶片製造核心臺積電(2330);封測京元電(2449)、日月光投控(3711),以及電源與散熱的臺達電(2308)、雙鴻(3324)、奇𬭎(3017);記憶體羣聯(8299)等廠都有望成爲核心受惠對象。

機器人

輝達(NVIDIA)執行長黃仁勳在CES 2026前夕重磅宣告「機器人的GPT時代來臨」,並揭露L4自動駕駛平臺正式落地,點燃市場對實體AI想像空間,有望激勵臺股機器人概念股,包含:羅升(8374)、穎漢(4562)、全球傳動(4540)、廣明(6188)、盟立(2464)、所羅門(2359)、亞光(3019)、昆盈(2365)、嘉聯益(6153)、高鋒(4510)、凌華(6166)等。

自駕車

輝達執行長黃仁勳看好機器人、自駕車將是未來AI兩大關鍵的終端應用,業界認爲,輝達打造自駕車,感測元件與鏡頭應用最關鍵,同欣電(6271)、亞光(3019)等臺廠受惠大。研華(2395)、益登(3048)、宜鼎(5289)等臺灣三家代理商也有望跟着吃香喝辣。

伺服器

AgenticAI及實體AI(Physical AI)時代來了!輝達(NVIDIA)預告Rubin平臺已經量產中,創辦人黃仁勳透露第三代機櫃是跟80家以上夥伴協同設計,除了營邦(AIC)(3693)外,過去持續與輝達合作的PCB廠臻鼎-KY(4958)、欣興(3037);以及川湖(2059)、南俊國際(6584),還有鴻海(2317)、廣達(2382)、緯創(3231)、仁寶(2324)、技嘉(2376)等組裝廠。

(資料來源:特派記者蘇嘉維、簡永祥、記者李慧蘭、陳昱翔、李孟珊、蕭君暉、編譯葉亭均、季晶晶;AI協助制稿)

延伸閱讀

輝達 Vera Rubin 伺服器5分鐘可組好?黃仁勳舉5層蛋糕解釋垂直整合

CES 來了 輝達再掀電力革命 中砂、昇陽半等受惠

黃仁勳2026 CES 演講 廣達梁次震、雲達楊麒令等 AI 兆元宴臺廠到場力挺