輝達推瘦身版語言模型 參數減至80億個

輝達推瘦身版語言模型 參數減至80億個。(業者提供)
輝達推瘦身版語言模型 參數減至80億個。(業者提供)

輝達 (NVDA-US) 今日宣布推出 Mistral-NeMo-Minitron 8B 模型,為先前發表的 Mistral NeMo 12B 模型的縮小版,除了精確度高,也具備在 GPU 加速的資料中心、雲端與工作站上運行模型的運算效率,此次全新語言模型倒是兼具模型體積小巧,又有著最先進的精確度,並大幅減少運算成本。

輝達 Mistral-NeMo-Minitron 8B 是 Mistral AI 與輝達在上個月共同發表開放式 Mistral NeMo 12B 模型的縮小版。Mistral-NeMo-Minitron 8B 小到可以在 NVIDIA RTX 驅動的工作站上運行,同時在由 AI 支援的聊天機器人、虛擬助理、內容產生器和教育工具的多項基準測試中,表現依然出色。

NVIDIA 使用開發客製化生成式 AI 的端對端平台 NVIDIA NeMo 蒸餾 (distillation) 出 Minitron 模型。

輝達應用深度學習研究部門副總裁 Bryan Catanzaro 表示,此次將兩種最佳化 AI 的方法加在一起。這包括以剪枝的方式將 Mistral NeMo 的 120 億個參數縮減為 80 億個,並且採用蒸餾方式提高精確度。這麼一來便能降低 Mistral-NeMo-Minitron 8B 的運算成本,又可以提供媲美原始模型的精確度。

小型語言模型可以即時在工作站和筆記型電腦上執行,這一點跟大型語言模型不同,此舉使得資源有限的組織更容易在基礎設施中部署生成式 AI 功能,又能取得最佳的成本、運作效率和能源使用程度。由於無需從邊緣裝置將資料傳送到伺服器,在邊緣裝置上以本機端的方式運行語言模型另外有著安全性方面的優勢。

開發人員可以透過包裝成有著標準應用程式介面 (API) 的輝達 NIM 微服務使用 Mistral-NeMo-Minitron 8B,或從 Hugging Face 下載模型,目前即將開放下載,可以在數分鐘內部署在任何 GPU 加速系統上。

與類似大小的模型相比,Mistral-NeMo-Minitron 8B 模型在九個熱門的語言模型基準測試均處於領先地位。這些基準涵蓋各種任務,包括語言理解、常識推理、數學推理、總結、編碼以及產生真實答案的能力。

Mistral-NeMo-Minitron 8B 模型包裝成 NVIDIA NIM 微服務,並且最佳化至最佳狀態,有著低延遲的特色,能加快回應使用者的速度,並有高輸送量以降低生產環境的運算成本。

輝達認為,開發人員在某些情況下可能想要使用更小的模型,以便在智慧型手機或機器人等嵌入式裝置上運行,為此可以下載有著 80 億個參數的模型,並針對企業特定的應用程式使用 AI Foundry 剪枝和蒸餾出較小且最佳的神經網路。

輝達指出,AI Foundry 平台與服務為開發人員提供完整堆疊解決方案,協助他們客製化基礎模型,並且將其包裝成 NIM 微服務。AI Foundry 平台與服務提供熱門的基礎模型、NeMo 平台與 DGX Cloud 上的專用容量。使用 AI Foundry 的開發人員同樣能夠使用 AI Enterprise,這個提供安全性、穩定性及支援部署到生產環境的軟體平台。

由於原版的 Mistral-NeMo-Minitron 8B 模型一開始就有著最先進的精確度,因此使用 AI Foundry 瘦身後的版本依舊只要極少的訓練資料與運算基礎設施,就能達到高精確度的表現。

研究團隊用剪枝加上蒸餾的方法,讓較小的模型達到高精確度表現。剪枝會去除掉對精確度影響最小的模型權重(weight),以縮小神經網路的規模。研究團隊在蒸餾模型時,會在一個小資料集上重新訓練這個修剪過的模型,以大幅提升在修剪過程中降低的精確度。

這麼一來可以得到一個更小又更有效率的模型,其預測精確度可媲美較大的模型。

這項技術代表只要使用原始資料集的一小部分,就能訓練一系列相關模型裡每個額外的模型,這跟從頭訓練一個較小的模型相比,剪枝和蒸餾一個較大的模型可以省下高達 40 倍的運算成本。


延伸閱讀

相關貼文

prev icon
next icon