重磅佈局伺服器CPU!輝達正式推出Vera CPU 效率提升2倍 速度提升五成
輝達周一 (16 日) 在 2026 年 GTC 大會上正式發布全新處理器 Vera CPU,為全球首款專為代理式 AI 與強化學習時代設計的中央處理器(CPU),其運行效率是傳統機架級 CPU 的兩倍,速度提升 50%,標誌著 AI 基礎設施的重大技術突破。
隨著推理型 AI 與代理式 AI 的快速發展,大語言模型 (LLM) 的規模、效能與成本愈發仰賴底層基礎設施的支持。這些模型負責規劃任務、運行工具、與數據互動、執行程式碼並驗證結果。
Vera CPU 正是在這一背景下應運而生,旨在協助各行各業及各種規模的組織打造 AI 工廠,大規模釋放代理式 AI 潛力。該處理器具備卓越的單線程效能與每核心頻寬,可顯著提升 AI 吞吐量、響應速度與運行效率,適用於編程助手及面向消費者和企業的智能體應用。
多家全球領先企業與系統製造商已跟輝達合作部署 Vera CPU,包括阿里巴巴、CoreWeave、Meta、甲骨文以及戴爾科技、HPE、聯想與 Supermicro 等。
廣泛採用使 Vera 有望成為開發者、新創公司、公私立機構與企業進行 AI 運算的首選 CPU 標準,有助於普及 AI 應用並加速創新。
全新推出的 Vera CPU 機架整合 256 顆液冷 Vera 處理器,可持續支援超過 22,500 個並發 CPU 環境,每個環境皆能以全性能獨立運行。AI 工廠可藉此在單一機架內快速部署,並擴展至數萬個並發實例與智能體工具。此機架採用 NVIDIA MGX 模組化參考架構,並獲得全球 80 家生態系夥伴支持。
Vera CPU 也是輝達 Vera Rubin NVL72 平台的核心零件,可透過 NVLink-C2C 互連技術與 GPU 配對,提供高達 1.8TB/s 的相干頻寬,是 PCIe Gen 6 的七倍,實現 CPU 與 GPU 之間的高速數據共享。
輝達亦推出新參考設計,將 Vera 作為 HGX Rubin NVL8 系統的主機 CPU,負責協調 GPU 加速工作負載的數據搬移與系統控制。
Vera 系統支援雙路與單路 CPU 伺服器配置,適用於強化學習、智能體推理、數據處理、系統編排、儲存管理、雲端應用及高效能運算等場景。所有配置均整合 NVIDIA ConnectX SuperNIC 網卡與 BlueField-4 DPU,以加速網路、儲存與安全功能,對代理式 AI 至關重要,並確保整個輝達平台維持統一軟體堆疊。
Vera 搭載 88 個輝達專為 AI 打造的 Olympus 核心,可高效支持編譯器、運行時引擎、分析流水線、智能體工具與編排服務等工作負載。每核心可透過 Spatial Multithreading 技術同時運行兩項任務,提供穩定可預測的效能,特別適合多租戶 AI 工廠的多任務處理需求。
為提升能效,Vera 採用第二代低功耗記憶體子系統,搭配 LPDDR5X 記憶體,頻寬達 1.2TB/s,是一般通用 CPU 的兩倍,功耗卻僅有一半。
AI 原生開發公司 Cursor 已率先導入 Vera,以提升其 AI 編程智能體效能。多家雲服務商如阿里巴巴、字節跳動、Cloudflare、CoreWeave、Crusoe、Lambda、Nebius、Nscale、Oracle Cloud Infrastructure、Together.AI 與 Vultr,也打算部署 Vera CPU。基
礎設施合作夥伴則涵蓋 Aivres、ASRock Rack、華碩、思科、戴爾、富士康、技嘉、HPE、聯想、技嘉、微星、廣達、緯創、Wistron 與 Wiwynn 等。
輝達表示,Vera CPU 目前已進入全面量產階段,預計今年下半年將透過合作夥伴正式上市,為全球 AI 工廠與代理式智能應用提供強大運算支撐。