指尖日報 科技情報組
晶片巨擘NVIDIA於2026年3月16日的GTC大會上投下震撼彈,正式發表名為Vera Rubin的全新運算平台,並宣稱這將開啟「代理式AI」(Agentic AI)的嶄新紀元。NVIDIA創辦人暨執行長黃仁勳表示,這是一次世代的飛躍,代理式AI的轉捩點已經到來,Vera Rubin將啟動史上最大規模的基礎設施建設。
所謂的代理式AI,象徵著人工智慧從被動回應的聊天機器人,朝向能夠自主推理、規劃並採取行動的智慧體演進。根據The Tech Buzz分析,這代表了NVIDIA的重大戰略轉向,從過去專注於模型「訓練」的硬體,過渡到為能夠獨立完成複雜任務的AI代理人提供規模化基礎設施。
Vera Rubin平台並非單一晶片,而是一套完整的「AI工廠」解決方案。根據NVIDIA發布的資料,該平台史無前例地整合了七款已全面投產的全新晶片,包含Vera CPU、Rubin GPU、NVLink 6交換器、ConnectX-9 SuperNIC網路卡,以及BlueField-4 DPU等核心組件,旨在打造一台巨型AI超級電腦。
平台的核心是專為代理式AI量身打造的Vera CPU。黃仁勳指出,當智慧體變得能夠推理與行動時,CPU的角色不再只是支援模型,而是在「驅動」它。 根據官方數據,Vera CPU擁有88個客製化Olympus核心,其執行效率是傳統CPU的兩倍,速度則快上50%。
Vera CPU與新一代的Rubin GPU透過NVLink-C2C技術高速互連,頻寬高達1.8 TB/s,是PCIe Gen 6的7倍之多,確保兩者間的資料能無縫共享。 例如,一台Vera Rubin NVL72機架就整合了72顆Rubin GPU與36顆Vera CPU,能以過往Blackwell平台四分之一的GPU數量來訓練大型專家混合模型(MoE),展現驚人效率。
這套系統的推論效能同樣迎來巨大突破。官方指出,Vera Rubin NVL72機架每瓦的推論輸送量提升高達10倍,同時將每個token的處理成本降低至十分之一。 這種低延遲、高效率的特性,對於需要即時決策的AI代理人應用很重要。
值得注意的是,該平台還整合了新創公司Groq的Groq 3 LPU推論加速器。 這款為低延遲和大脈絡(large-context)需求設計的處理器,與Rubin GPU協同運作,可針對兆級參數模型,將每百萬瓦的推論吞吐量提升高達35倍,為營運商帶來10倍的潛在營收機會。
此一發布迅速獲得業界巨頭的背書。OpenAI執行長Sam Altman表示,NVIDIA的基礎設施讓他們能持續推進AI前沿,Vera Rubin將使其能以更大規模運行更強大的模型與代理人。 Anthropic共同創辦人Dario Amodei也指出,他們客戶日益複雜的代理式工作流程,正需要Vera Rubin這樣能跟上腳步的基礎設施。
生態系的支援幾乎是全面性的。根據報導,所有主流雲端服務商如Amazon Web Services、Google Cloud、Microsoft Azure與Oracle Cloud Infrastructure,以及主要硬體製造商Dell、HPE、Lenovo、ASUS與鴻海等都已加入支援行列,相關產品預計於今年下半年開始供貨。
NVIDIA的野心甚至超越了地球。根據HPCwire報導,該公司同步推出了專為太空環境設計的Vera Rubin Space-1模組。 這個特殊版本針對衛星等場景的尺寸、重量與功耗限制進行優化,目標是讓大型語言模型能直接在軌道資料中心運行,處理來自太空儀器的龐大數據流。
相較於前代H100 GPU,Vera Rubin太空模組能為太空中的AI推論提供高達25倍的算力,為地理空間情報分析和自主太空操作等任務帶來革命性的可能。 Axiom Space、Planet Labs PBC等六家太空科技公司已率先採用此平台。
相關報導:techbuzz.ai、nvidia.com








