2025.07.01 10:45 臺北時間

發生什麼事不會再聽成「花生」 聯發科推出本土AI語音辨識模型

mm-logo
時事
發生什麼事不會再聽成「花生」 聯發科推出本土AI語音辨識模型
聯發科研究單位聯發創新基地發布更理解台灣用語的AI語音辨識模型。

聯發科集團旗下研究單位聯發創新基地發布基於OpenAI Whisper,但更理解台灣用語與口音的AI語音辨識模型,在中、英混合的用語情境上精確度也更高。

聯發科技集團轄下的前瞻技術研究單位聯發創新基地(MediaTek Research)發布基於OpenAI Whisper的AI語音辨識開源模型MediaTek Research Breeze ASR 25(後略MR Breeze ASR 25);相較於OpenAI Whisper,更加理解台灣用語及口音,同時,在台灣常見的中、英混合的用語情境上,也達到更高的精準度。此外,模型以Apache 2.0條款釋出,以利促進百工百業在各類創意AI領域應用。

聯發創新基地負責人許大山博士表示,開源語音辨識模型雖逐年進步,但對於在地用語及口音的辨識度仍顯不足,例如把「發生什麼事」聽成「花生什麼事」。有鑑於語音辨識是AI應用的關鍵啟動功能,此次特別釋出「聽得懂在地語言」的ASR模型MR Breeze ASR 25,其精準度相較於OpenAI的Whisper提升近10%、中英語轉換表現(Code-switching)則增進56%。藉此,聯發創新基地能以完整的繁體中文AI模型,積極推進繁體中文AI的創新並普及模型於地端及裝置端的使用。

聯發創新基地自2025起已陸續開源全套繁體中文AI模型,包含整合視覺功能的語言模型(Visual Large Language Models,V-LLM)、針對台灣口音調整的文字轉語音模型(Text to Speech,TTS)、以及能調用外部資訊的函式呼叫(Function Calling)模型。此次釋出的MR Breeze ASR 25為MR Breeze系列第二代語音辨識開源模型,能即時將語音轉為文字,並透過強化台灣語料及台灣口音,來符合本土應用需求。


回到原文
更多鏡報報導
2奈米晶片點燃戰火!聯發科、高通搶AI Agent新藍海
2025第一季IC設計產業營收季增約6% 輝達居冠、聯發科第五
聯發科歷年累積IP成果發酵 蔡明介:ASIC成重要成長動能
更新時間|2026.04.01 06:25 臺北時間
延伸閱讀

更多內容,歡迎 鏡週刊紙本雜誌鏡週刊數位訂閱了解內容授權資訊

獨家深度分析報導

線上閱讀

更多內容,歡迎 鏡週刊紙本雜誌鏡週刊數位訂閱了解內容授權資訊

獨家深度分析報導

線上閱讀