微軟推出簡化AI應用程式開發和語言模型切換軟體 增添營運動能

微軟 (MSFT-US) 周二 (19 日) 在芝加哥舉辦的年度 Ignite 大會上推出人工智慧 (AI) 工具「Azure AI Foundry」,可以協助雲端用戶構建和布署 AI 應用程式。與此同時,該公司還在會上發布兩款晶片。

根據外媒報導,Azure AI Foundry 可以讓使用者更輕鬆地在支援 AI 的大型語言模型 (LLM) 之間切換。例如,使用舊版 OpenAI 產品的客戶可以嘗試新版產品,或從 OpenAI 切換到 Mistral 或 Meta Platforms(META-US) 的 AI 工具。微軟雲端運算負責人 Scott Guthrie 在接受訪時表示,除混合搭配模型,客戶還可以確保應用程式正常運作並獲得良好的投資回報。

微軟表示,將免費提供這款軟體,以吸引企業客戶更多地購買其雲端服務。

目前,有 6 萬名客戶在使用 Azure AI,這項雲端服務讓開發人員可以使用 1,700 種不同的 AI 模型來建構和運行應用程式。不過這個過程仍然繁瑣,很難跟上新模型和更新的速度。據了解,客戶不希望每次出現新技術時都重新建立應用程序,也不希望在不了解模型適用任務的情況下盲目切換。

Guthrie 說:「開發人員常常發現,每個新模型,即使是同一家族的模型,在某些方面有更好的答案或性能,但在其他方面可能會出現倒退,如果你的企業運行著關鍵任務的應用程序,你不會希望一切換就指望它能正常運作。」

Guthrie 表示,讓客戶更輕鬆在模型之間切換,不會削弱微軟與 OpenAI 的緊密合作關係。他指出,這反而能讓客戶更容易選擇最適合每項任務的 OpenAI 模型。不過,微軟也深知,提供選擇是吸引和留住客戶的關鍵。

分析認為,微軟此舉是希望增加生成式 AI 的收入。儘管微軟試圖說服客戶更多投資於 AI,但公司一直警告投資人,雲端業務的銷售成長將因資料中心容量不足以滿足需求而下降。 Guthrie 表示,這些限制是暫時的,微軟承諾未來將有足夠的運算能力。

兩款新晶片亮相

去年微軟在 Ignite 大會上宣布首款自主研發的雲端運算和 AI 晶片,今年又發表了兩款新晶片,其中一種是保護加密和簽章金鑰等內容的安全微處理器。該公司表示,從明年起,這款新晶片將安裝在所有新建微軟資料中心的伺服器中。

另一種晶片是資料處理單元 (DPU),這是一種類似輝達 (NVDA-US) 生產的網路晶片,能更快速地將資料傳輸到運算和 AI 晶片,從而加快任務處理。微軟和其競爭對手正在追求越來越強大的雲端系統,以訓練和運行 AI 模型。

微軟負責晶片設計與開發的副總裁 Rani Borkar 表示,每一層晶片、伺服器、軟體和其他元件都必須不斷改善並達到最佳效能。

此外,微軟也宣布 Maia AI 晶片將用於運行 Azure OpenAI 服務,與輝達片共同運作。有關 365 Copilot,微軟新增一項可以自動化處理重複任務的功能,同時 Teams Copilot 將能夠理解和回答有關投影片、網路圖片和其他視覺內容的問題。從明年開始,PowerPoint 的 Copilot 將能夠將簡報翻譯成 40 種語言。