
文章圖片
【甲骨文推出全球最大AI超算,作為OpenAI「星際之門」算力核心】
甲骨文于上周發布全球最大云端AI超級計算機「OCI Zettascale10」 , 由80萬塊NVIDIA GPU組成 , 峰值算力高達16 ZettaFLOPS , 成為OpenAI「星際之門」集群的算力核心 。 其獨創Acceleron RoCE網絡實現GPU間高效互聯 , 顯著提升性能與能效 。 該系統象征甲骨文在AI基礎設施競爭中的強勢布局 。
甲骨文在2025年AI World大會上發布OCI Zettascale10超級集群 。
在拉斯維加斯舉辦的AI World 2025大會上 , 甲骨文高調推出了一臺號稱全球最大規模的云端AI超級計算機——OCI Zettascale10 。
這個龐然大物橫跨多個數據中心 , 由多達80萬塊NVIDIA GPU芯片構成 , 峰值計算性能被宣稱可達驚人的16 ZettaFLOPS(即每秒1021次以上浮點運算) 。
如此天文數字意味著平均每塊GPU可貢獻約20 PetaFLOPS算力 , 接近英偉達最新一代Grace Hopper(Blackwell架構GB300)芯片的水平 。
甲骨文此舉無疑是在急速升溫的AI算力軍備競賽中放出「大招」 , 試圖在云端AI基礎設施版圖上占據一席之地 。
OpenAI巨型集群的動力之源這套Zettascale10系統已經成為OpenAI龐大算力需求的幕后功臣 。
據悉 , 甲骨文與OpenAI在德州阿比林(Abilene)共建了「星際之門」旗艦AI超級計算集群 , 而OCI Zettascale10正是其算力骨干 。
OpenAI基礎設施部門副總裁Peter Hoeschele表示 , 甲骨文定制的RoCE高速網絡架構在「千兆瓦級」規模下最大化了整體性能 , 同時將大部分能耗都用在了計算上 。
換言之 , 甲骨文研發的這套RDMA over Converged Ethernet網絡(代號Acceleron)將海量GPU緊密連接成一個整體 , 使得OpenAI的大模型訓練能夠在如此龐大的芯片陣列上高效運轉 。
正因有了與OpenAI的深度合作背書 , Zettascale10一亮相便自帶「實戰」光環 , 它已經在為當今業界最嚴苛的一些AI工作負載提供動力 。
Acceleron網絡架構揭秘如此規模的GPU「巨陣」要高效運轉 , 奧秘就在于甲骨文獨創的Acceleron RoCE網絡架構 。
簡單來說 , Acceleron讓每塊GPU的網絡接口卡(NIC)都充當一個小型交換機 , 一次可連接到多個隔離的網絡交換平面 。
這種多平面、扁平化的網絡設計大幅降低了GPU之間的通信延遲 , 并確保即使某一路由出現故障時 , 訓練作業也能自動切換到其它路徑繼續運行 , 不至于被迫中斷 。
相比傳統三級交換結構 , Acceleron減少了網絡層級 , 使GPU對GPU的直連延遲更加一致 , 整體性能更具可預測性 。
此外 , 該架構引入了線性可插拔光學模塊(LPO)和線性接收光學組件(LRO)等新技術 , 在不降低400G/800G帶寬的前提下削減了網絡的能耗與冷卻成本 。
甲骨文稱這種創新網絡既提高了效率又降低了成本 , 讓客戶可以用更少的電力完成同樣的AI訓練任務;
NVIDIA公司高管Ian Buck也認可道 , 正是這種全棧優化的「計算結構」(compute fabric)提供了將AI從實驗推進到工業化所需的基礎 。
峰值神話與現實考驗甲骨文計劃在2026年下半年正式向客戶提供Zettascale10集群服務 , 目前這一系統已開始接受預訂 。
然而 , 對于16 ZFLOPS的驚人算力 , 不少業內觀察者持保留態度 。
該數據尚未經獨立機構驗證 , 而且很可能是基于理論峰值算力而非持續實效得出 。
據業內報道 , 甲骨文宣稱的16 ZFLOPS有可能利用了極低精度的AI計算指標(例如FP8甚至4比特稀疏運算)來實現 。
實際的大模型訓練通常需要使用更高精度(如BF16或FP8)的數值格式以保證模型收斂效果 , 因此16 ZFLOPS這個數字更多體現了甲骨文硬件在理想情況下的上限潛力 , 而非日常工作負載下可持續交付的性能 。
這臺「云端巨無霸」真正的實戰表現還有待時間檢驗 , 只有等到系統明年投入使用 , 各種基準測試與用戶實際反饋才能揭曉它能否如宣稱般高效且可靠 。
云端AI競賽的挑戰與展望甲骨文并非孤軍奮戰 。
當前 , 微軟、谷歌、亞馬遜等云計算巨頭也在爭相構建各自的大規模AI集群 , 它們或采購海量GPU , 或研發自家AI加速硬件 , 云端AI算力版圖正迅速擴張 。
甲骨文此次押下重注推出Zettascale10 , 一方面鞏固了與OpenAI的戰略聯盟 , 另一方面也是向業界宣示其在AI時代不容忽視的新實力 。
然而在市場前景上 , 甲骨文依然面臨如何吸引客戶的問題 。
為此 , 該公司還發布了新的「多云通用積分」計劃 , 允許運營商用統一的預付積分在甲骨文云及AWS、Azure、Google等多家云服務間自由調配甲骨文數據庫和OCI服務 。
這項舉措旨在降低客戶遷移門檻、提高平臺黏性 , 為甲骨文云生態爭取更大的用戶基礎 。
OCI Zettascale10的出現展示了云服務商為滿足AI空前算力需求所做的大膽探索 。
等到明年這套系統真正落地 , 我們才能知道甲骨文能否憑借這一云端「巨無霸」在激烈的AI基礎設施競賽中搶得先機 , 并兌現其關于高效、規模和可靠性的承諾 。
參考資料https://www.oracle.com/news/announcement/ai-world-oracle-unveils-next-generation-oci-zettascale10-cluster-for-ai-2025-10-14/
本文來自微信公眾號“新智元” , 作者:艾倫 , 36氪經授權發布 。
推薦閱讀
- 谷歌推出開源全棧NPU新架構,旨在實現大模型在終端的低功耗運行
- 全球首個長肌腱AI機器人量產!Nature盛贊的中國方案驚艷IROS現場
- 賺錢DeepSeek果然第一!全球六大頂級AI實盤廝殺,人手1萬刀開局
- Vidu Q2攜王炸登場!「參考生」功能全球上線,APP體驗全面革新
- 僅0.9B!百度新開源模型一夜登頂,識別109種語言,綜合分全球第一
- 中國主導ITU 6G信道模型起草,全球6G研發邁出關鍵一步
- Mini-ITX玩家新玩具+1!銘瑄推出“終結者B850 BKB”顯卡背插主板
- 全球智能手機最新榜單:vivo第五,小米第三,第一名意料之中
- 對標高德掃街榜 美團宣布推出“市井煙火榜” 評分體系升級
- CoreWeave LOTA技術實現對象數據高速全球傳輸
