打破單一GPU打天下策略 輝達GTC大會傳將發表推論專用LPU 搭配SRAM

英國金融時報引述知情人士報導,輝達(NVIDIA)預料在下週舉行的GTC開發者大會上,推出一款專攻「推論」的晶片,目的在提升 AI迴應速度,打破長期以來以同一款處理器來應付所有任務的策略。

這是輝達自去年12月以200 億美元拉攏Groq之後的頭一款新產品。Groq 是一家開發「語言處理單元」(LPU)的新創公司,其技術專爲高速回應複雜的 AI 查詢而設計。

這交易完成三個月後,輝達預料推出一款基於 Groq 技術的 LPU,和即將問世的新一代旗艦級「Vera Rubin」圖形處理器協同運作。這一系列產品目的在擺脫對手追趕,並應付新型態的AI應用之需。

輝達執行長黃仁勳曾主張,單一系統即可既用於訓練新的 AI 模型,又執行隨後開發的聊天機器人和程式開發工具。各大科技巨人已投入數千億美元部署這些系統,但他們同時也正投資研發自家專用的 AI 晶片。

不過,隨着「代理型」程式碼系統等 AI 工具的複雜度日益提升,黃仁勳被迫放棄單一 GPU 即可應付所有工作的一貫主張。

輝達和Groq 的交易涵蓋授權合作,以及對核心人才的延攬,其中包括 Groq 創辦人、原Google晶片主管羅斯(Jonathan Ross)。Groq 原本和三星(Samsung)合作生產產品,先前曾宣傳自己的LPU在執行推論任務時,比輝達的GPU更快且更有效率。

輝達旗艦級的 Blackwell和Rubin 系統,均仰賴高頻寬記憶體(HBM)來處理 AI 模型運作時龐大的數據負載。

但HBM 不僅價格昂貴,供應也日益吃緊。SK 海力士和美光(Micron)等記憶體供應商難以跟上 AI 需求。

金融時報引述知情人士報導,Groq架構的晶片採用 SRAM(靜態隨機存取記憶體),而非 HBM 所使用的DRAM。SRAM 取得較爲容易,且更適合用來提升AI「推理」任務的速度。

美銀分析師預測,到 2030 年 AI 資料中心市場規模達到 1.2 兆美元時,推論將佔支出的 75%,去年這比率約 50%。

分析師本週提出報告中指出,輝達GTC可能會揭曉「更廣泛的 AI 產品組合」,其中包括來自 Groq 的 SRAM 架構晶片。

輝達競爭對手 FuriosaAI 執行長白俊(June Paik)表示,提供能更快速且容易部署的推論晶片,還有另一個好處。他指出:「很多企業希望利用現有的資料中心進行推論,但目前絕大多數的資料中心……都無法支援最新的液冷GPU。」

Creative Strategies 科技分析師巴傑林(Ben Bajarin)則說:「資料中心的未來,將不再是一個規格打天下的世界。」

輝達(NVIDIA)預料在下週舉行的GTC開發者大會上,推出一款專攻「推論」的晶片。路透