聯發科最新旗艦晶片年底問世 推動終端裝置運用Meta Llama 2

IC 設計大廠聯發科 (2454-TW) 今 (24) 日宣布,將運用 Meta 最新世代大型語言模型 Llama 2,以及自家最先進的人工智慧處理單元 (APU) 和完整 AI 開發平台 NeuroPilot,建立完整的終端運算生態系統,預計運用 Llama 2 模型開發的 AI 應用將在年底最新旗艦產品上亮相。

聯發科指出,新旗艦晶片將加速智慧手機、汽車、智慧家庭、物聯網等終端裝置上開發 AI 應用,為終端裝置提供更安全、可靠和差異化的使用體驗,為使用者帶來突破性的生成式 AI 應用體驗。

無線通訊事業部總經理徐敬全表示,生成式 AI 的浪潮是數位轉型的重要趨勢之一,公司願景是為 Llama 2 的開發者和終端使用者提供工具,帶來更多令人振奮的 AI 創新機會和產品體驗。透過與 Meta 的夥伴關係,聯發科可提供更強大的硬體和軟體整體解決方案,賦予終端裝置更勝以往的強大 AI 效能。

聯發科認為,目前大部分的生成式 AI 處理都是透過雲端運算進行,公司將生成式 AI 直接部署在終端裝置,讓開發者及使用者能直接在裝置上使用 Llama 2 模型,藉此提升性能、加強隱私保護、提高安全性及可靠性、降低延遲,能離線運算,並擁有節省成本的多項優勢,讓每個人都能享受到生成式 AI 帶來的便利與創新。

尤其要真正在裝置上釋放生成式 AI 的潛力,製造商需採用高運算、低功耗的 AI 處理器,以及更快、更可靠的連網性能,以增強整體運算能力。目前聯發科每款 5G 系統單晶片皆配有 APU,已有廣泛執行多項生成式 AI 功能的成功實例,例如 AI-NR 雜訊抑制、AI-SR 超高解析度、AI -MEMC 動態補償等。

聯發科今年底也將推出最新一代的旗艦晶片組,並採用針對 Llama 2 模型而優化的軟體堆疊架構 (NeuroPilot),與搭配支援 Transformer 模型做骨幹網路加速的升級版 AI 處理單元,降低 DRAM 存取消耗及頻寬佔用,進一步強化大型語言模型和生成式 AI 的性能,以利開發者打造令人期待的全新 AI 應用,加速終端應用的落地擴展。