OpenAI多點下注,聯手英偉達、AMD、博通,狂攬26吉瓦算力

text":"在人工智能(AI)技術飛速發展 , 特別是大語言模型(LLM)和多模態模型以前所未有的速度迭代的今天 , 算力已成為決定AI公司核心競爭力的戰略性資源 。 作為全球領先的人工智能企業 , OpenAI近期在不到一個月的時間內 , 連續披露了三項規??涨暗挠布献鳎号c博通(Broadcom)共同研發10吉瓦定制AI加速器;與英偉達(NVIDIA)簽署最高1000億美元的投資協議 , 用于部署至少10吉瓦的NVIDIA系統;以及與AMD簽訂合同 , 計劃在未來數年內部署不少于6吉瓦的AMD Instinct GPU卡 。 這些計劃總計涉及高達26吉瓦的算力規模 , 顯示出OpenAI正在從單純的算力消費者 , 向算力生態的共同設計者和戰略掌控者轉變 。 OpenAI x 博通 , 部署10吉瓦AI加速器10月13日 , OpenAI和博通公司宣布合作開發10吉瓦的定制AI加速器 。 根據雙方的聯合聲明 , 雙方分工明確 , OpenAI將主導AI加速器及整個系統架構的設計 , 機架系統完全基于博通的以太網和其他連接解決方案進行構建和擴展 , 并將部署在OpenAI的設施和合作伙伴數據中心 , 以滿足全球對人工智能日益增長的需求 。 此外 , 兩家公司計劃于2026年下半年開始部署 , 預計在2029年底前完成全部部署 。 對于這次合作 , OpenAI總裁布洛克曼表示:“通過自研芯片 , 我們能將開發前沿模型和產品積累的經驗直接嵌入硬件 , 從而開啟更高層級的智能與能力 。 ”此前OpenAI的CEO奧爾特曼透露 , 公司與博通已經合作了18個月 , 雙方正在“從晶體管層面重新構思技術架構” , 一直延續到用戶向ChatGPT提問時的全流程處理 。 他強調:“通過優化整個技術堆棧 , 我們能實現顯著的效率提升 , 這將帶來更優異的性能表現、更快的模型響應以及更低的運行成本 。 ”OpenAI x AMD , 部署至少6吉瓦的AMD尖端算力卡10月6日 , OpenAI在官網宣布與AMD達成合作協議 , 將在未來數年內分階段部署總計6吉瓦的AMD GPU算力 。 此次合作采用“技術+股權”雙輪驅動模式 。 AMD向OpenAI發行了至多達1.6億股AMD普通股的認股權證 。 當OpenAI完成首個1吉瓦部署時 , 將解鎖第一部分權證;隨著部署規模擴大到6吉瓦 , 會逐步解鎖更多權證 。 如果OpenAI行使全部認股權證 , 將可以獲得AMD約10%的股權 。 這將使OpenAI成為AMD的重要戰略股東 , 雙方形成“你中有我 , 我中有你”的緊密共生關系 。 根據合作協議 , 首批1吉瓦將于2026年下半年啟動 , 采用AMD下一代AI加速核心產品Instinct MI450系列GPU , 并配套機架式AI解決方案 。 后續將根據采購規模擴大逐步釋放認股權證 , 最終實現6吉瓦的算力部署 。 OpenAI x 英偉達 , 1000億美元配置10吉瓦算力9月22日 , 英偉達與OpenAI共同宣布 , 雙方已簽署合作意向書 。 根據聲明 , 英偉達計劃向OpenAI投資最高達1000億美元 , 用于支持OpenAI建設和部署至少10吉瓦規模的英偉達AI系統 。 這一合作的最終細節將在未來數周內確定 。 此次合作的核心目標是為OpenAI訓練和運行下一代AI模型提供海量算力 , 部署至少10吉瓦的英偉達AI芯片系統 。 根據相關分析 , 10吉瓦的算力規模大致相當于400萬到500萬顆頂級GPU的算力總和 。 這一數字是現有任何單一AI數據中心規模的數倍乃至數十倍 。 值得關注的是 , 高達1000億美元的投資額并非一次性支付 , 而是采用了一種與算力部署進度深度綁定的創新模式 , 英偉達將隨著每一吉瓦數據中心上線逐步投資 。 據知情人士透露 , 預計首批資金(可能為100億美元)將在最終協議簽署時或首個項目啟動時到位 , 以支持初期的基礎設施建設和硬件采購 。 投資將按當時的估值進行 。 根據合作計劃 , 第一個1吉瓦規模的AI系統預計將于2026年下半年正式上線 , 這個首批部署的系統將基于英偉達即將推出的下一代平臺——Vera Rubin平臺 。 總 結作為當前AI計算領域的領導者 , 英偉達的GPU是支撐OpenAI乃至整個行業現有模型訓練和推理的核心 。 OpenAI與英偉達的最新合作 , 有利于確保其在短期和中期內擁有最強大、最成熟的算力支持 。 同時 , 在與英偉達達成鞏固性合作后 , OpenAI又與英偉達在高性能計算領域的主要競爭對手AMD簽署了另一份大規模算力合同 。 此舉有助于OpenAI構建多元化供應商體系 , 以降低對單一供應商的過度依賴 , 增強供應鏈韌性 。 而與博通的合作則表明 , OpenAI試圖通過設計屬于自己的、為AI工作負載量身定制的專用加速器(ASIC) , 實現最高程度的軟硬件協同優化和算力自主 。 三起合作 , 算力驚人 , 規模驚人 , OpenAI在過去一個月內宣布的這三項總計26吉瓦的算力計劃 , 遠非簡單的硬件采購 。 一個值得注意的共同點是 , 這三個項目的首次大規模部署節點都指向了2026年下半年 。 這或許預示著屆時OpenAI的算力基礎設施將迎來一個新的飛躍 , 其模型研發和迭代能力可能會進入一個全新階段 。 "

    推薦閱讀