財經理財
2023.08.24 15:56 臺北時間

聯發科導入Meta Llama 2大型語言模型 力拚年底AI旗艦終端新品登場

聯發科攜手Meta,預計在年底推出旗艦型生成式AI晶片,令各界引頸期待。
聯發科攜手Meta,預計在年底推出旗艦型生成式AI晶片,令各界引頸期待。
聯發科今(24日)宣布,運用Meta最新世代大型語言模型Llama 2以及聯發科最人工智慧處理單元(APU)和完整的AI開發平台(NeuroPilot),建立完整的終端運算生態系統,加速智慧手機、汽車、智慧家庭、物聯網等終端裝置上的AI應用開發,為終端裝置提供更安全、可靠和差異化的使用體驗。聯發科與Meta雙強聯手,要在新一代AI旗鑑產品加入生成式AI(人工智慧)能力,預計年底登場。
聯發科無線通訊事業部總經理徐敬全表示,生成式AI的浪潮是數位轉型的重要趨勢之一,該公司願景是為Llama 2的開發者和終端使用者提供工具,帶來更多令人振奮的AI創新機會和產品體驗。透過與Meta的夥伴關係,聯發科可提供更強大的硬體和軟體整體解決方案,賦予終端裝置更勝以往的強大AI效能。
目前大部分的生成式AI處理都是透過雲端運算進行,聯發科將生成式AI直接部署在終端裝置,讓開發者及使用者能直接在裝置上使用Llama 2模型,藉此提升性能、加強隱私保護、提高安全性及可靠性、降低延遲,能離線運算,並擁有節省成本的多項優勢,讓每個人都能享受到生成式AI帶來的便利與創新。
要真正在裝置上釋放生成式AI的潛力,製造商需採用高運算、低功耗的AI處理器,以及更快、更可靠的連網性能,以增強整體運算能力。目前每一款由聯發科系統單晶片驅動的5G智慧手機皆配有APU,已有廣泛執行多項生成式AI功能的成功實例,例如AI-NR雜訊抑制、AI-SR超高解析度、AI -MEMC動態補償等。
聯發科將於今年底推出最新一代的旗艦晶片組,並採用針對Llama 2模型而優化的軟體堆疊架構(NeuroPilot),與搭配支援Transformer模型做骨幹網路加速的升級版AI處理單元,降低動態隨機存取記憶體(DRAM)存取消耗及頻寬占用,進一步強化大型語言模型和生成式AI的性能,以利開發者打造令人期待的全新AI應用,加速終端應用的落地擴展。
更新時間|2023.09.12 20:47 臺北時間

支持鏡週刊

小心意大意義
小額贊助鏡週刊!

每月 $79 元全站看到飽
暢享無廣告閱讀體驗

延伸閱讀

更多內容,歡迎 鏡週刊紙本雜誌鏡週刊數位訂閱了解內容授權資訊

月費、年費會員免費線上閱讀動態雜誌

線上閱讀

更多內容,歡迎 鏡週刊紙本雜誌鏡週刊數位訂閱了解內容授權資訊

月費、年費會員免費線上閱讀動態雜誌

線上閱讀