Nvidia預計將AI拓展至全領域 黃仁勳:現在是AI的iPhone時刻

Nvidia(NVDA-US) 周二 (21 日) 召開年度開發者大會,執行長黃仁勳發表演說,強調「我們正處在 AI 的 iPhone 時刻」,並將 Nvidia 定位為背後的引擎。

借助圍繞 ChatGPT 和其他人工智慧產品的風口浪尖,Nvidia 在此次活動中公布了一系列的產品,從雲端服務到硬體產品應有盡有,也公布目前關係密切的合作夥伴。

黃仁勳在演說中強調,「生成式人工智慧將重塑幾乎所有行業」。

雲端服務為重點之一

Nvidia 公布了一系列的雲端服務產品,包括全新的 Nvidia AI Foundations 服務,它可以為企業提供 AI 模型構建、創建應用等服務。該服務基於 Nvidia 的多項模型生成,包括語言模型 Nvidia NeMo 、視覺模型 Nvidia Picasso 和生物學模型 BIONEMO。

目前 Nvidia NeMo 已經開放早期訪問,而 Nvidia Picasso 還需要再等上一段時間。Getty Images、Morningstar、Quantiphi 和 Shutterstock 等公司 均已表示將會接入相關服務。

Nvidia DGX Cloud 是 Nvidia 推出的 AI 超級計算服務,它可以讓企業立即訪問為生成式 AI 和其他突破性應用程式訓練高級模型所需的基礎設施和軟體。Nvidia 表示,企業可按月租用 DGX Cloud 集群,確保快速輕鬆地擴展大型多節點訓練工作負載的開發,而無需等待通常需求量很大的加速計算資源。

Nvidia 的目標是建立基礎設施,使人工智慧應用程序更快,更容易為客戶所用。 Nvidia 的圖形處理單元已成為 ChatGPT 及其同類產品背後的大腦,幫助它們消化和處理越來越多的訓練數據。 

據指出,甲骨文和微軟 Azure 均已成為 Nvidia 的合作夥伴,其中微軟 Azure 預計將在下一季開始使用 DGX Cloud,並且該服務將很快擴展到 Google 雲。

唯一可以處理 ChatGPT 的 GPU

在主題演講中,Nvidia 也為 AI 產品推出了專用的 GPU 推理平台。

該平台擁有四種不同的配置,可以針對不同的工作負載進行優化。分別對應了 AI 視頻加速、圖像生成加速、大型語言模型(LLM)加速和推薦系統和 LLM 資料庫。包括:L4 Tensor Core GPU、L40 GPU、H100 NVL GPU 和 Grace Hopper 超級晶片。

其中最主要的是 H100 NVL,它將 Nvidia 的兩個 H100 GPU 拼接在一起,以部署像 ChatGPT 這樣的大型語言模型(LLM)。

黃仁勳說:「當前唯一可以實際處理 ChatGPT 的 GPU 是 NvidiaHGX A100。與前者相比,現在一台搭載四對 H100 和雙 NVLINK 的標準伺服器速度能快 10 倍,可以將大語言模型的處理成本降低一個數量級。」

黃仁勳在 GTC 上宣布了一項名為 CuLitho 的新技術,用以加快半導體的設計和製造。該軟體使用 Nvidia 晶片來加速基於軟體的晶片設計,並加速用於在晶片上列印該設計的光刻掩模的物理製造之間的步驟。

Nvidia 表示,它正在與 ASML、Synopsys 和台積電合作,將該技術推向市場。據介紹,台積電將在 6 月開始準備該技術的試產。


延伸閱讀

相關貼文

prev icon
next icon