蘋果揭露 AI模型在Google晶片上訓練

蘋果 (AAPL-US) 週一 (29 日) 在一份技術論文中表示,其人工智慧系統 Apple Intelligence 的兩個人工智慧 (AI) 模型是在 Google 設計的雲端晶片上進行預先訓練。蘋果此舉顯示,在 AI 訓練方面,一些大型科技公司可能正在尋找 AI 霸主輝達 (NVDA-US) 晶片的替代品。

蘋果一篇 47 頁的科技論文中,詳細介紹用於訓練的張量處理器 (TPU)。另外,蘋果週一也發布了適用於部分裝置的 Apple Intelligence 預覽版。

(圖片:臉書)
(圖片:蘋果)

蘋果在其 47 頁的論文中沒有提到 Google (GOOGL-US) 或輝達,但確實指出其蘋果基金會模型 (AFM) 和 AFM 伺服器是在「雲端 TPU 叢集」上訓練的,這意味著蘋果從雲端提供者租用伺服器來執行運算。

蘋果公司在論文中表示:「該系統使我們能夠有效地、可擴展地訓練 AFM 模型,包括 AFM-on-device、AFM-server 和更大的模型。」

截稿前,蘋果和 Google 的代表沒有回應置評請求。

在 OpenAI 於 2022 年底推出 ChatGPT 後不久,蘋果算是比較晚的科技巨頭公布 AI 計畫。蘋果週一推出了 Apple Intelligence。該系統包括幾個新功能,例如 Siri 的全新外觀,更好的自然語言處理和文字欄位中人工智慧產生的摘要。

(圖片:翻攝appleinsider)
(圖片:蘋果)

在接下來的一年裡,蘋果計劃推出基於生成式 AI 的功能,包括影像生成、表情符號生成和升級後的 Siri,後者可以存取用戶的個人資訊,並在應用程式中採取行動。

蘋果在週一的科技論文表示,AFM-on-device 是在 2048 個 TPU v5p 晶片的單一「切片」上進行訓練的。這是最先進的 TPU,於去年 12 月首次推出。AFM-server 是在 8192 TPU v4 晶片上進行訓練的,這些晶片被配置為透過資料中心網路作為 8 個切片一起工作。

Google 很早就在資料中心內大量部署 TPU,用於加速 AI 模型訓練和推論部署使用,而且不僅自家使用,Google 更把 TPU 當作雲端運算服務或提供第三方使用,還將它變成產品銷售。

根據 Google 的網站,Google 最新的 TPU 每小時的成本不到 2 美元,晶片需要提前三年預訂才能使用。Google 於 2015 年首次推出了用於內部工作負載的 TPU,並於 2017 年向公眾開放。它們現在是為人工智慧設計的最成熟的客製化晶片之一。

不過,Google 仍然是輝達的頂級客戶之一,其雲端平台上出售輝達技術的使用權。

蘋果先前表示,推理,即採用預先訓練的人工智慧模型並運行它來產生內容或做出預測,將部分在蘋果自家資料中心的晶片上完成。

蘋果在 6 月 WWDC 2024 期間發布相關技術文件顯示,蘋果推出的「Apple Intelligence」技術背後,蘋果工程師除了在「Apple Intelligence」採用蘋果自有處理器等硬體,搭配自有軟體框架之外,在人工智慧模型前期訓練更以自有 GPU 結合 Google TPU 進行加速訓練。