【科技中心/綜合報導】 為了全面強化 Azure 雲端基礎設施的自主權並降低對 NVIDIA(輝達)的長期依賴,微軟(Microsoft)於 2026 年 1 月 26 日正式發表其第二代自研 AI 加速晶片「Maia 200」。這款晶片採用台積電(TSMC)最先進的 3 奈米製程技術,標誌著微軟從「晶片採購大戶」轉身成為具備頂尖硬體研發實力的供應者。
Maia 200 晶片集成了超過 1,400 億個電晶體,特別針對生成式 AI 的「推論(Inference)」場景進行極致優化。微軟透露,Maia 200 的 FP4 運算效能是亞馬遜(Amazon)第三代 Trainium 晶片的三倍,而在 FP8 運算表現上也全面超越了 Google 的第七代 TPU。
除了硬體規格亮眼,微軟此次更力推開源軟體工具包「Triton」。該工具獲得了 OpenAI 的技術支援,旨在簡化 AI 模型在不同晶片間的轉換流程,直指輝達賴以生存的 CUDA 軟體生態系。微軟雲端與 AI 事業群執行副總裁 Scott Guthrie 指出,Maia 200 是目前市場上效率最高的推論系統,在同等硬體支出下,效能較現行系統提升了 30%。
隨著微軟、Meta 及 Google 等巨頭相繼投入自研晶片,半導體供應鏈格局正迎來劇變。業界分析師警示,由於 AI 基礎設施需求過於龐大,且生產資源高度向高頻寬記憶體(HBM)傾斜,全球高品質記憶體短缺的狀況預計將持續到 2027 年。台積電的 3 奈米產能分配,以及各大廠如何確保關鍵零組件供應,將成為未來兩年科技產業的競爭核心。
















你必須登入才能發表留言。