微軟下一代AI芯片推遲至2026年量產

微軟下一代AI芯片推遲至2026年量產

微軟下一代芯片Braga面臨設計難題 。
近日 , 有報道稱 , 微軟下一代自研Maia人工智能芯片的發布日期已從原定的2025年推遲至2026年 。
【微軟下一代AI芯片推遲至2026年量產】延遲的主要原因在于下一代芯片Braga面臨設計難題 。 微軟在開發過程中需要整合OpenAI的新功能需求 , 導致芯片模擬運行時出現不穩定問題 , 進而將量產時間推遲至少六個月 。 分析師預計 , Braga的性能可能不及2024年英偉達發布的Blackwell芯片 , 影響微軟在AI芯片市場的競爭力 。
盡管如此 , 微軟已規劃后續代號為Braga-R和Xylia的芯片路線圖 , 以鞏固其在云AI領域的領導地位 。 此次推遲提醒業界 , 自研芯片雖前景廣闊但技術門檻高企 , 微軟仍需平衡創新與現實可行性 。
微軟Maia 100 AI芯片2023年11月 , 在Microsoft Ignite大會 , 微軟首次發布了Maia系列的首款產品——Azure Maia 100 AI芯片和Cobalt 100 CPU 。 這兩款芯片專為云基礎設施和訓練大規模語言模型優化設計 , 通過微軟內部構建的垂直集成方案 , 顯著提升了性能、功耗和成本效率 。
作為微軟首個定制AI加速器系列的開篇之作 , Maia 100以先進規格脫穎而出 。 該芯片尺寸約為820平方毫米 , 采用臺積電5納米制程技術 , 集成1050億個晶體管 , 僅比AMD MI300 GPU少約30% , 并首次支持8-bit以下的MX數據類型 , 以加速模型訓練和推理過程 。 此前微軟宣稱 , Maia 100性能直追英偉達H100 , 同時節省約30%成本 , 凸顯其在減少對外部GPU依賴上的戰略價值 。
Maia 100芯片采用了臺積電的N5工藝和COWOS-S中介層技術 , 使得集成度大幅提升 , 同時優化了能耗管理 。 該芯片集成了大型片上SRAM , 并結合四個HBM2E芯片 , 實現了每秒1.8TB的總帶寬和64GB的存儲容量 , 充分滿足了AI數據處理的高要求 。
在計算性能方面 , Maia 100配備了高速張量單元和矢量處理器 。 高速張量單元支持多種數據類型 , 包括低精度的MX數據格式 , 為AI計算提供了強大的動力 。 矢量處理器則采用定制指令集架構(ISA) , 支持FP32和BF16等多種數據類型 , 進一步提升了AI運算的效率 。 此外 , Maia 100還具備高效的Tensor運算能力 , 確保了復雜AI模型的高效運行 。
Maia 100的TDP設計為500W , 盡管支持高達700W的功率 , 但其架構設計緊密圍繞現代機器學習需求展開 , 旨在實現最佳的計算速度、性能和準確性 。 通過低精度存儲數據類型和數據壓縮引擎設計 , Maia 100減少了大型推理作業對帶寬和容量的需求 , 從而降低了能耗 。 同時 , 大型L1和L2暫存器由軟件管理 , 以實現最佳的數據利用率和能效 。
值得一提的是Maia 100的硬件和軟件架構均是從頭開始設計 , 旨在更高效地運行大規模工作負載 。 軟件開發工具包(SDK)為開發人員提供了一套全面的組件 , 以便將模型快速部署到Azure OpenAI服務 。 框架集成方面 , Maia 100支持一流的PyTorch后端 , 同時提供了調試器、分析器、可視化器等開發人員工具 , 助力模型的調試和性能調整 。 編譯器方面 , Maia 100提供了Triton編程模型和Maia API兩種選擇 。
*聲明:本文系原作者創作 。 文章內容系其個人觀點 , 我方轉載僅為分享與討論 , 不代表我方贊成或認同 , 如有異議 , 請聯系后臺 。
想要獲取半導體產業的前沿洞見、技術速遞、趨勢解析 , 關注我們!

    推薦閱讀