根據 Counterpoint Research HPC Service 最新發布的《資料中心 AI 伺服器運算 ASIC 出貨預測與追蹤》,全球 AI 伺服器運算 ASIC 對高頻寬記憶體(HBM)的位元需求,預計將在 2024 至 2028 年間成長 35 倍。
Counterpoint Research表示,AI ASIC對於高頻寬記憶體的位元需求,將在5年內成長35倍,此一爆發性成長主要來自專有加速器廣泛採用高密度記憶體架構。主要需求動能包括 Google 為支援 Gemini 生態系而大幅擴展 TPU 基礎架構、AWS Trainium 叢集持續部署,以及 Meta MTIA 與 Microsoft Maia 的導入升溫。儘管超大規模雲端服務商持續積極擴展自研晶片產品組合,但整體產業發展方向顯示,HBM 已成為支撐下一代 AI 工作負載的關鍵技術,同時也是主要資本支出的重點。
此趨勢的一大重點,是 AI 加速器整體可服務市場(TAM)出現結構性變化,其中客製化 ASIC 正快速提升在全球 HBM 消耗中的占比。值得注意的是,這波需求成長主要來自單顆晶片層級記憶體密度的大幅提升。這種每顆晶片密度的指數級增長,直接反映出下一代 AI 工作負載對運算能力的快速提升需求。隨著超大規模雲端服務商迅速導入兆級參數模型、多模型架構以及複雜的 Mixture-of-Experts(MoE)設計,需要更高的記憶體密度以將更龐大的資料集靠近運算核心,進而提升資料吞吐量、降低高階推論任務的延遲,並確保記憶體瓶頸不會拖累整體系統效能。
【點擊看完整全文】
更多鏡報報導
AI ASIC全面點火!聯發科目標10至15%市占率 有望獲更多台積電CoWoS產能
手機業務Q1將明顯下滑!AI成第二曲線 聯發科蔡力行:今年ASIC營收超過10億美元
黃仁勳證實見了張忠謀曝:他狀況很好 強調輝達GPU比ASIC更通用



