2026年,AI服務器貴貴貴!

2026年,AI服務器貴貴貴!

文章圖片

2026年,AI服務器貴貴貴!

文章圖片

2026年,AI服務器貴貴貴!

文章圖片

2026年,AI服務器貴貴貴!

文章圖片


2026年 , 將是AI服務器系統級升級的關鍵窗口期 。
摩根士丹利在最新研報中稱 , AI服務器硬件正在經歷一場由GPU和ASIC驅動的重大設計升級 。 2026年 , 英偉達即將推出的GB300、Vera Rubin平臺和Kyber架構 , 以及AMD的Helios服務器機架項目 , 都會帶來更高的計算能力和機柜密度 。
與之匹配的 , 將是更有效的電源解決方案、標配的液冷散熱方案以及更高要求的PCB和高速互聯 。 這場系統級升級 , 也將讓2026 年的 AI 服務器迎來“不可估量的貴” 。
01AI服務器 , 需求爆發
AI服務器需求還在持續上升 。
大摩預測 , 僅英偉達平臺 , AI服務器機柜的需求就將從2025年的約2.8萬臺 , 在2026年躍升至至少6萬臺 , 實現超過一倍的增長 。 與此同時 , AMD的Helios服務器機架項目(基于MI400系列)也獲得了良好進展 , 進一步加劇了市場對先進AI硬件的需求 。

當前 , 英偉達Blackwell平臺 , 特別是GB200芯片 , 是當前AI服務器市場的核心驅動力 。
到了2026年 , AI硬件從H00/H200時代 , 轉向NVIDIA的GB200/300(Blackwell平臺)及后續的Vera Rubin(VR系列)平臺所驅動的新周期 。
芯片功率不斷突破上限 。 從H100的700W TDP(TDP:散熱設計功耗) , 到B200的1000W , 再到GB200的1200W , 直至2026年下半年登場的Vera Rubin(VR200)平臺 , 其GPU最大TDP將飆升至2300W , 而2026年末的VR200 NVL44 CPX 更是高達3700W 。
隨著GPU功耗逼近4kW , 傳統風冷方案徹底失效 , 液冷成為唯一可行路徑 。 英偉達已在GB200平臺中將液冷作為標準配置 , 并與主要OEM廠商聯合開發定制化冷板接口 , 確保熱量能高效傳導至冷卻回路 。
此外 , 供電系統也面臨重構 。 主流服務器廠商正從12V VRM向48V直流母線遷移 , 以減少轉換損耗并提升電源響應速度 。 這些變化意味著未來的AI數據中心將不再僅僅是“放滿GPU的機房” , 而是一個集電力、冷卻、信號傳輸于一體的復雜工程系統 , 其建設成本與運維難度將顯著上升 。
這都是導致AI服務器 “變貴” 的原因 。
02AI服務器代工廠商 , 產能全開
隨著英偉達在下半年轉向Blackwell Ultra平臺的GB300/B300后 , 明年會再迎來迭代的Vera Rubin平臺所驅動的新周期 。

從交付主體看 , 鴻海、廣達、緯創、緯穎四家具備NVIDIA Certified Systems認證資質的ODM廠商 , 構成了當前GB200/GB300整機柜的主要供應方 。 其中 , 鴻海為首批完成GB200及GB300整機柜量產交付的廠商 。
鴻海第三季度AI服務器機柜出貨季增幅度高達300% 。 整體來看 , 鴻海2025年AI服務器收入預計將超過1萬億新臺幣的目標 , 占據40%的市場份額 。 管理層預計GB200與GB300不會出現重大過渡問題 , 并表示GB300將在2025年下半年主導出貨 。

近期 , 廣達、緯創及緯穎11月營收齊創單月歷史新高 。 廣達、緯穎營收分別達1929.47億元及968.85億元新臺幣 , 環比增幅分別為11.4%和6.2% 。 最新數據顯示 , 緯創表現最為突出 , 11月合并營收沖上2806.24億元新臺幣 , 環比增51.6% , 同比增幅更高達194.6% 。
大摩預計 , 11月單月GB200出貨量為5500柜 , 較10月成長29% 。 其中廣達出貨1000-1100柜、緯創1200-1300柜、鴻海約2600柜 。
從2025年度GB200、GB300機架服務器各ODM廠出貨的市場占比來看 , 鴻海占過半的市場份額 , 高達52%;緯創約占 21%;廣達占約 19%;就產品別來看 , GB200占比高達81% , GB300則約 19% 。
分析預期 , 隨著英偉達新款GB300架構AI服務器進入出貨旺季 , 三家廠商本季業績有望齊創新高 , 推動全年營收交出至少年增五成以上的優異成績 。
03產業鏈升級
今年9月下旬 , 英偉達GB300 AI服務器出貨 。 到了2026年下半年 , Vera Rubin系列出貨 , 其中包括電源、散熱設計均與GB系列不同 , 這對于零組件廠來說是出貨重新洗牌的機會 , 也帶動了整個產業鏈的升級 。
電源
隨著AI 工作負載呈指數級增長 , 數據中心的功率需求也隨之激增 。 以搭載NVIDIA GB200 NVL72 或 GB300 NVL72 的設備為例 , 需配備多達 8 個電源架為 MGX 計算及交換機架供電 。 若沿用 54V 直流配電 , 在兆瓦級功率需求下 , Kyber 電源架將占用高達 64U 的機架空間 , 導致計算設備無安裝空間 。 而在 2025 年 GTC 大會上 , NVIDIA 展示的 800V 邊車方案 , 可在單個 Kyber 機架內為 576 個 Rubin Ultra GPU 供電;另一種替代方案則是為每個計算機架配置專用電源架 。
傳統的54V 機架內配電系統專為千瓦級機架設計 , 已無法滿足現代 AI 工廠中兆瓦級機架的供電需求 。 英偉達正將其電源供應策略提升至全新戰略高度 , 通過下一代Kyber平臺 , 將技術護城河從芯片算力延伸至整個數據中心的電力架構 , 意圖定義未來AI工廠的標準 。

英偉達的AI服務器電源戰略“Kyber”正雙線推進 , 其量產目標設定在2026年底前 , 早于市場普遍預期的2027年 。
據天風國際證券分析師郭明錤分析 , Kyber項目的參考設計范疇已顯著擴展 , 不再局限于GPU與機柜層級 , 而是將整個數據中心的供電與基礎設施納入規劃 , 包括800 VDC/HVDC配電和固態變壓器(SST)的應用 。 也就是說 , 自Kyber世代起 , 電源架構的重要性在英偉達內部已提升至與半導體同等的戰略地位 。
據大摩預測 , 到2027年 , 為Rubin Ultra機柜(采用Kyber架構)設計的電源解決方案 , 其單機柜價值將是當前GB200服務器機柜的10倍以上 。 同時 , 到2027年 , AI服務器機柜中每瓦功耗對應的電源方案價值 , 也將比現階段翻倍 。
散熱
隨著數據中心CPU和GPU性能的不斷提升 , 其功耗也隨之激增 , 散熱成本上漲的趨勢非常明顯 。
英偉達的液冷技術路線呈現清晰的漸進式升級特征 。 早期GB200采用單板單向冷板+風冷組合方案 , 冷板覆蓋CPU、GPU等高溫區 , 風冷負責電源等低溫部件 。 新一代GB300全面升級為全冷板液冷方案 , 可穩定應對1400瓦散熱需求 。 面向未來Rubin芯片的超高功耗場景 , 英偉達已布局兩相冷板液冷與靜默式(浸沒式)液冷耦合方案 。




具體來看 , 英偉達GB300 NVL72機架級AI系統 , 單單是液冷散熱組件的價值就高達49860美元(約合人民幣近36萬元) , 這已經比GB200 NVL72系統高了大約20% 。
有數據表明 , 下一代Vera Rubin NVL144平臺的散熱總價將更高 。 隨著計算托架和交換機托架的冷卻需求進一步增加 , 預計每個機柜的冷卻組件總價值將增長17% , 達到約55710美元(約合人民幣近40萬元) , 其中為交換機托架設計的冷卻模塊預計價值將顯著增長67% 。
高端PCB
AI服務器等硬件升級推動高端PCB需求激增 。 每一次GPU迭代 , 都伴隨著對PCB層數、材料等級和尺寸的更高要求 。
當前 , 隨著服務器功能的增強和算力的提升 , 在一些功能板卡上 , 例如BMC(基板管理控制器)板卡、網卡以及PoE(以太網供電)卡上的用量都有所增加 。 在迭代趨勢方面 , PCB的層數正向更高端發展 , 目前普遍已經達到44至46層 。
【2026年,AI服務器貴貴貴!】高端PCB正展現出巨大需求潛力 。 Prismark數據顯示 , 2025Q1全球PCB市場規模同比增長6.8% , 其中高端HDI板和18層以上高多層板需求增速分別達14.2%和18.5% 。 目前 , 包括東山精密、滬電股份等在內的頭部廠商正將新增產能傾斜至18層以上的高端品類 。
更關鍵的是 , PCB 產品的迭代不僅僅是數量層級的提升 , 更是價格的翻倍式增長 , 這將直接體現在利潤的大幅增加上 。 例如 , 從400G升級到800G或1.6T , PCB的價格不是增長20%或30% , 而是成倍增長 。
滬電股份表示 , AI仍然是當前確定性最強的需求 。 從海外資本開支預期可看到云計算廠商正在爭相在 AI 基礎設施布局 , 2025 年 META、谷歌、微軟、亞馬遜資本開支分別同比增加 60%、43%、45%、20% , AI 服務器從以往的14~24 層提升至 20~30 層 , 交換機提升至 38~46 層 , 部分產品還會引入 HDI 工藝 , 行業附加值有望增長 。
04金主已備好“黃金”
云廠商們已經做好了準備 。 在AI服務器需求增長與成本升級的情況下 , 全球主要的八大CSPs資本支出持續擴大 , 為“變貴”的AI服務器提供了需求支撐 。
TrendForce集邦咨詢將2025年全球八大主要CSPs資本支出(CapEx)總額年增率從原本的61% , 上修至65% 。 預期2026年CSPs仍將維持積極的投資節奏 , 合計資本支出將進一步推升至6000億美元以上 , 年增來到40% , 展現出AI基礎建設的長期成長潛能 。

這里統計的八大CSPs包含谷歌、AWS、Meta、微軟、Oracle(甲骨文)、騰訊、阿里、百度 。 面對 AI 數據和云端需求的激增 , 谷歌把 2025 年的資本支出上調到 910-930 億美元;Meta 亦上修 2025 年資本支出至 700-720 億美元 , 并指出 2026 年還將顯著成長;Amazon(亞馬遜)則調升 2025 年資本支出預估至 1250 億美元 。
2026年 , AI服務器會變得不可估量的貴 。 從GPU功耗突破到液冷、供電、PCB 的全鏈條升級 , 再到代工廠產能與成本的同步提升 , 每一環都在推高最終價格;而CSPs的持續投入 , 又讓這場 貴價升級”有了堅實的需求基礎 。
想要獲取半導體產業的前沿洞見、技術速遞、趨勢解析 , 關注我們!

    推薦閱讀