英偉達、AMD罕見攜手,眾多廠商大秀AI硬核實力

英偉達、AMD罕見攜手,眾多廠商大秀AI硬核實力
2025年OCP全球峰會期間 , AMD、Arista、ARM、博通、Cisco、HPE Networking、美滿電子、Meta、Microsoft、英偉達、OpenAI和甲骨文等十二家公司宣布成立ESUN工作組(Ethernet for Scale-Up Networking) 。

值得一提的是 , 上述廠商中 , AMD與英偉達互為AI芯片市場競爭對手 , 兩家大廠加入同一陣營引發業界極大關注與好奇:OCP以及ESUN工作組能帶來什么?眾多廠商又在這場盛會中帶來了哪些創新產品與技術方案?
AI時代 , OCP與ESUN工作組要做什么?
資料顯示 , OCP(Open Compute Project , 開放計算項目)由Facebook(現已改名為Meta)于2011年聯合英特爾、Rackspace等公司發起 , 旨在通過開源硬件設計推動數據中心創新 。 OCP核心使命是降低數據中心成本與環境影響 , 提供高能效的服務器、存儲及基礎設施設計 。 經過十余年發展 , OCP已成為全球最大的開源硬件社區之一 , 會員企業超過500家 , 涵蓋芯片廠商、服務器廠商、云計算及互聯網巨頭 。
OCP全球峰會每年舉辦一次 , 今年主題為“引領AI的未來”(Leading the Future of AI) , 聚焦開放協作與標準化 , 旨在構建更統一、更高效率的全球數據中心架構 , 讓業界能以開放生態的方式應對AI時代的運算與能源挑戰 。
OCP已設立數據中心基礎設施、服務器、存儲等10個技術項目組 , ESUN作為新分支 , 聚焦AI網絡垂直領域 , 完善開放計算標準體系 。
業界指出 , ESUN工作組旨在通過開放的以太網 , 挑戰AI集群內部被專有協議壟斷的高速互聯市場 。
AI訓練集群的網絡需求分為Scale - Out(橫向擴展)與Scale - Up(縱向擴展) 。 Scale - Out用于連接不同機柜、不同樓宇的服務器;Scale - Up則是單臺服務器內部多個GPU、TPU之間的超高速互聯 , 要求亞微秒級延遲、無損傳輸、每秒數TB的吞吐 。 過去 , 該市場被專有協議壟斷 , 使用了某家加速器 , 需要配套使用網絡方案 , 不同方案互不兼容 , 存在成本高、生態碎片化等問題 。
在這一背景下 , ESUN聚焦搭建開放論壇 , 由運營商、設備商、芯片廠共同制定Scale-Up網絡以太網方案 。 開放的設計打破了鎖定 , 廠商議價將更為靈活 , 可根據工作負載特點 , 自由組合不同廠商的芯片、交換機、光模塊 。 同時 , 開放標準也降低了創新門檻 。 廠商不用從零開始設計架構 , 直接基于OCP規范開發產品 , 能更快進入市場 。
隨著AI算力競賽愈演愈烈 , ESUN作為OCP開源出來的新規范 , 為龐大的AI芯片互聯 , 提供統一的標準 , 并降低成本 , 巨頭們攜手合作 , 既是商業利益的考量 , 也有望在未來持續助力AI產業發展 。
廠商秀肌肉 , GPU、液冷散熱等放光芒
本屆峰會上 , 圍繞AI主題 , 多家大廠展出創新產品或解決方案 , 涉及GPU、AI服務器、液冷散熱、存儲器等 。
01/英特爾推出下一代數據中心GPU
英特爾宣布推出下一代數據中心GPU , 代號為Crescent Island , 聚焦推理和代理智能(Agentic AI)優化 , 旨在提供最佳的經濟效益和性能 。
該款GPU采用通用可編程GPU IP XC3 IB構建 , 具備低功耗特性 , 搭載LPDDR內存 , 并在存儲器容量和帶寬方面實現良好平衡 。另外 , Crescent Island優化「預填充」工作負載 , 具備較佳的計算優化和內存容量/帶寬組合 , 預計于2026下半年開始送樣 。
02/英偉達展示未來AI工廠愿景
會上 , 英偉達正式發布《800 VDC Architecture for Next-Generation AI Infrastructure》白皮書 , 揭示了其“AI工廠”愿景 , 包括NVIDIA Vera Rubin NVL144 MGX新世代開放式架構機架服務器、新世代800伏特直流電設計 , 以及擴大的NVIDIA NVLink Fusion生態系統 。
英偉達在最新的Vera Rubin GPU平臺與Kyber系統架構中 , 首次采用800VDC供電體系 , 單機柜功率從200KW升至1MW 。 業界指出 , 800VDC即800V高壓直流電源架構 , 可使電流降低15倍以上 , 在有限空間內實現更高算力密度、更低能耗 。
英偉達表示 , 在NVIDIA Vera Rubin NVL144 MGX新世代開放式架構機架服務器的規格方面 , 超過50家MGX伙伴正為此開展準備工作 , 同時為NVIDIA Kyber提供生態系統支持 。 NVIDIA Kyber可連接576顆RubinUltra GPU , 以滿足日益增長的推理需求 。 超過20家產業伙伴正展示新一代芯片、零部件與電源系統 , 以及對百萬瓦級新世代800伏特直流電(VDC)數據中心的支持 , 這些數據中心將支持NVIDIA Kyber機架架構 。
此外 , NVIDIA NVLink Fusion正加速發展 , 包括英特爾與三星晶圓代工加入NVLink Fusion生態系 , 涵蓋定制化芯片設計商、CPU與IP伙伴 , 助力AI工廠快速擴展 , 以處理模型訓練與代理型AI推理等高強度工作負載 。
03/AMD展示全新“Helios”機架級平臺
AMD公開展示了其面向人工智能與數據中心市場的全新“Helios”機架級平臺 , 標志著該公司正式進軍機架規模(Rack-Scale)系統領域 。 該系統將整合AMD Instinct GPU、EPYC CPU以及全新的開放互聯架構 , 為行業提供面向未來的AI平臺 。
Helios將搭載即將推出的EPYC “Venice” CPU與Instinct MI400加速器 , 其中EPYC Venice預計采用Zen 6架構 , 強化多芯片互聯與內存帶寬;MI400系列延續CDNA架構路線 , 將支持更高效的矩陣運算單元和改進的多GPU擴展性 。 同時 , Helios引入了快速斷開式液冷系統 , 可在不拆卸主機組件的情況下進行維護 , 從而提高數據中心的運行效率 。
值得一提的是 , AMD正與甲骨文合作 , 將上線一個大型數據中心集群 , 該集群將使用數萬枚AMD最新的AI芯片 , 兩家公司計劃在2027年及以后擴大合作關系 。
04/緯穎/緯創、Frore Systems秀液冷方案
隨著AI大模型發展 , AI芯片性能持續提升的同時 , 功耗也在以每代1.5-2倍的速度增長 。 傳統風冷散熱效率達到極限 , 液冷技術憑借高效散熱與節能優勢 , 逐漸成為AI應用的新選擇 。
峰會期間 , 緯穎攜手緯創展示了新一代AI服務器以及先進直接液冷(Direct Liquid Cooling)解決方案 。
緯穎與緯創是首批提供NVIDIA GB300 NVL72系統的合作伙伴之一 。 該款液冷、機柜級AI系統 , 搭載72顆NVIDIA Blackwell Ultra GPU , 并配備NVIDIA ConnectX-8 800Gb/s SuperNICs , 為推理模型提供強大的運算性能 。 此外 , 兩家公司還展示了NVIDIA HGX B300、AMD Instinct? MI350系列GPU系統、雙寬機柜架構等新一代AI系統 。
在先進液冷技術方面 , 展示了四大系統 , 包括:
● 雙面液冷板(Double-sided Cold Plate):展出專為未來高功率IC打造的雙面液冷板 , 可同時為AI加速器與其搭配的垂直電源供應IC提供最高達4kW的散熱能力 。 結合緯穎自有微流道設計以及先進的電化學3D打印技術 , 預期可將散熱效能提升最多達40% 。
● 兩相液冷板(Two-phase Cold Plate):針對采用不導電環保冷媒的兩相直接液冷系統 , 緯穎推出專利的3D打印wicking‐fin液冷板設計 。 系統可利用相變機制強化散熱效率 , 并降低因漏液造成的停機時間 , 為大規模液冷AI與高效能運算(HPC)提供高效、高可靠度的解決方案 。
● 300kW AALC Sidecar:與Shinwa Controls Co. , Ltd合作開發的雙機柜寬AALC(Air-Assisted Liquid Cooling)系統 , 進一步提升AALC散熱能力 , 同時提供高可靠度與易維護性 , 讓數據中心在不更動既有基礎設施的情況下 , 即可部署液冷AI機柜 。
● OCP Future Technologies Symposium:緯穎與Fabric8Labs將發表“采用電化學3D打印微流道、支持超過350W/cm2超高熱通量的新世代液冷板 。
此外 , Frore Systems同樣發布了面向AI數據中心的創新方案:LiquidJet?液冷板 , 旨在釋放GPU的更高性能 。 其制造工藝及結構設計拋棄了傳統冷板的2D切削工藝 , 采用了Frore首創的、適配金屬晶圓的半導體制造工藝 , 打造出極致復雜的3D短回路噴射通道微結構 , 可實現:在40°C進水溫度下 , 熱點功率密度提升2倍達600W/cm2;功率密度(KW/Ipm)提升50%;壓降降低4倍;定制化設計 , 精準匹配任意系統級芯片(SoC)功率分布;便于直接升級替換 。
Frore Systems介紹 , LiquidJet?液冷板具備性能提升與成本優化的特點 , 能降低GPU溫度 , 每秒處理更多AI令牌 , 消除熱降頻;同時TCO更低、PUE更優 , 將冷卻開銷轉化為競爭優勢 。
05/大普微展示核心存儲產品矩陣

AI蓬勃發展離不開海量數據的支撐 , 數據的存儲、讀取速度以及管理的便捷性 , 直接影響著AI模型的訓練效率和運行效果 。 為AI工作負載提供高效、穩定、大容量的存儲解決方案 , 成為推動AI進一步發展的關鍵因素 。

本次峰會上 , 大普微展示了先進的存儲技術 , 為AI基礎設施提供高性能存儲解決方案 。 核心產品矩陣包括:

● J5060 122TB QLC SSD:針對AI和大數據時代海量的數據存儲需求 , 大普微J5060作為全球范圍內率先量產的超大容量122T QLC SSD , 為構建PB級AI數據湖等提供了理想選擇 。 它為讀密集型AI工作負載提供更高性能 , 同時顯著降低數據中心的能耗、空間占用和總擁有成本。

● H5100 30TB TLC SSD:兼具高性能與大容量的主力產品 , H5100為AI模型訓練和混合讀寫負載提供了卓越的穩定性與耐久性 。

● X5900低延遲SLC SSD:作為最新一代Gen5 SCM SSD , X5900為應對AI數據緩存、元數據管理等延遲敏感型工作負載 , 憑借18/5μs的讀寫延遲最大化提升AI計算效率 。
【英偉達、AMD罕見攜手,眾多廠商大秀AI硬核實力】06/立訊技術展示高速互連、光通信等成果
立訊技術展示了其在高速互連、光通信、熱管理及電源技術領域的最新成果 。
其中 , 448G/224G共封裝銅(CPC)解決方案呈現極低的信號衰減、高密度封裝及優異的機械穩定性——充分體現銅互連技術在下一代交換機與服務器中的關鍵應用價值 。
224G CPC實時打流演示 , 通過立訊技術自研CPC設計 , 實現每通道224G的穩定數據傳輸 , 直觀呈現高流量負載下無間斷的信號完整性與抗干擾能力 , 為數據中心互連向224G及更高速率演進搭建關鍵橋梁 。
此外 , 立訊技術還展示了下一代電源方案 , 高能效Power Shelf、Busbar , 以及能耗更低、散熱性能更優、專為高密度AI算力機柜量身定制的PSU產品 。
通過現場演示、新品發布及專家演講 , 立訊技術全面呈現其一體化技術生態如何為下一代人工智能、超大規模數據中心及云數據中心提供核心支撐 。
07/勤誠首次展出概念機柜方案
勤誠在峰會現場展示了多款創新產品 , 包括符合OCP DC-MHS架構的模塊化機殼、與NVIDIA合作的MGX服務器機箱 , 同時也首次展出機柜方案 。
● OCP DC-MHS:此次展出適配DC-MHS的解決方案 , 顯示對于新一代CPU平臺的支持 , 以及配合AI Inference的應用擴展 。
● GB300及MGX:此次展出的GB300機種致力于協助AI大模型的訓練、MGX 4U CX8則致力于協助AI中小模型的訓練及推理應用 。
● 客制化機柜:勤誠于今年起切入機柜解決方案的業務 , 本次展會亦首次展示了OCP 21英寸和EIA 19英寸可互換的「概念機柜」 , 搭載勤誠的MGX和DC-MHS機箱做整體呈現 , 顯示更全方位的機構方案提供能力 。
此外 , 勤誠透露 , 今年現場亦可看到多款勤誠與客戶聯手打造的AI及云端服務器 。
08/希禾增材攜銅3D打印熱管理解決方案亮相
本次峰會上 , 希禾增材(ADDIREEN)攜高性能銅3D打印熱管理解決方案亮相 。
希禾增材介紹 , 與傳統紅外激光相比 , 純銅等高反金屬對綠激光的吸收率極高 。 采用綠激光金屬3D打印 , 可以更高效、更精密地打印純銅散熱部件 , 從根本上解決了AI芯片散熱的材料制造難題 。
希禾增材專注于液冷板、散熱器、均熱板等高導熱結構件的研發與制造 , 該公司微通道液冷板解決方案依托綠激光技術 , 能在冷卻流道內實現高度復雜的微結構 , 顯著增強散熱效率 , 為新一代AI芯片的高效穩定運行提供保障 。
通過與全球行業伙伴的交流與合作 , 希禾增材將持續推動銅增材制造在新一代計算與能源系統中的應用創新 , 為構建更高效、更可持續的熱管理生態貢獻力量 。
結語
AMD、英偉達等一眾廠商攜手合作 , 彰顯了開放協作在應對AI時代運算與能源挑戰中的重要性 。 同時 , 眾多廠商在GPU、液冷散熱等領域的創新展示 , 為AI產業發展注入了新的活力 。 可以預見 , 在廠商的共同努力下 , AI產業將迎來更加高效、開放的發展新階段 , 持續推動全球科技進步與產業升級 。

    推薦閱讀