日本免费全黄少妇一区二区三区-高清无码一区二区三区四区-欧美中文字幕日韩在线观看-国产福利诱惑在线网站-国产中文字幕一区在线-亚洲欧美精品日韩一区-久久国产精品国产精品国产-国产精久久久久久一区二区三区-欧美亚洲国产精品久久久久

英偉達(dá)和谷歌,美國(guó)AI棋局的楚河漢界

英偉達(dá)和谷歌,美國(guó)AI棋局的楚河漢界

文章圖片

英偉達(dá)和谷歌,美國(guó)AI棋局的楚河漢界


最近 , OpenAI又傳出購(gòu)買芯片的消息 , 但采購(gòu)對(duì)象卻并非英偉達(dá)或谷歌 。
據(jù)了解 , 這筆訂單落在了晶圓級(jí)芯片公司Cerebras身上 , 協(xié)議總金額超過100億美元、對(duì)應(yīng)最高約750兆瓦算力容量 , 并將分階段在2026—2028年落地 。
眾所周知 , 長(zhǎng)期以來 , OpenAI的核心訓(xùn)練體系一直建立在英偉達(dá)GPU之上 。 但最近一段時(shí)間里 , OpenAI一直在嘗試把算力“雞蛋”放進(jìn)多個(gè)籃子里 。
去年6月 , 有媒體披露稱OpenAI計(jì)劃通過Google Cloud租用芯片 , 為包括ChatGPT在內(nèi)的產(chǎn)品提供部分推理算力 。
這一算力供應(yīng)策略上發(fā)生變化背后 , 是美國(guó)AI產(chǎn)業(yè)的兩大陣營(yíng)相互作用下的結(jié)果:一邊是以英偉達(dá)為核心的GPU生態(tài) , 另一邊是近年來崛起的谷歌陣營(yíng)TPU(谷歌自研的AI專用加速芯片)生態(tài) 。
在大模型爆發(fā)初期 , 英偉達(dá)幾乎是算力的唯一中心:從訓(xùn)練到推理 , 從芯片到CUDA生態(tài) , 行業(yè)別無其他選擇 。
但在過去兩年 , 這種“絕對(duì)核心”地位開始松動(dòng) 。 一方面GPU供給長(zhǎng)期緊張、價(jià)格高企;另一方面超大模型推理負(fù)載激增 , 催生對(duì)專用加速器與替代架構(gòu)的現(xiàn)實(shí)需求 , 也為其他算力路線留下切口 。
在這一背景下 , 谷歌的TPU路線逐漸成型 。 通過把TPU與Gemini、VertexAI的節(jié)奏深度綁定 , 谷歌逐步搭建起一套“從芯片到模型、云服務(wù)”的一體化供給體系 。 ?
Cerebras則是OpenAI在兩大陣營(yíng)之外插入的一枚籌碼:它主打晶圓級(jí)芯片的技術(shù)路線 , 主打低延遲推理與特定負(fù)載的吞吐優(yōu)勢(shì) 。 這家公司也一直被各路機(jī)構(gòu)視為美股潛在IPO標(biāo)的 。
在英偉達(dá)和谷歌兩大陣營(yíng)的“楚河漢界”之間 , 頭部AI企業(yè)們?cè)凇罢娟?duì)”與“合作”間不斷交錯(cuò) 。
01
兩大基座陣營(yíng) , 既要“合縱”也要“連橫”
盡管在AI算力版圖出現(xiàn)了“兩大陣營(yíng)”分化的現(xiàn)象 , 但在過去一年里 , 英偉達(dá)仍是市場(chǎng)的絕對(duì)主力:IDC在2025年二季度的統(tǒng)計(jì)顯示 , 英偉達(dá)在AI算力廠商份額占比約85.2% 。
只是在AI產(chǎn)業(yè)中 , “盟友”與“敵人”的界限往往并不清晰 , 但仍能在頭部企業(yè)身上 , 窺探到一絲生態(tài)上的偏好 。
英偉達(dá)的主力合作伙伴中 , 微軟和AWS(亞馬遜云服務(wù))持續(xù)把英偉達(dá)新品作為云端算力主力;與此同時(shí) , 谷歌也在加速把TPU打造成更“可遷移”的選項(xiàng) , 并通過改進(jìn)對(duì)PyTorch等主流框架的支持、與包括Meta在內(nèi)的企業(yè)/開發(fā)者社區(qū)協(xié)作 , 降低外部使用門檻 。
以微軟為例 , 根據(jù)Omdia的估算 , 2024年微軟采購(gòu)了約48.5萬塊英偉達(dá)Hopper系列GPU , 幾乎是其競(jìng)爭(zhēng)對(duì)手的兩倍之多 , 顯示出它在AI基建領(lǐng)域與英偉達(dá)的緊密關(guān)系 。

2025年11月 , 微軟與數(shù)據(jù)中心運(yùn)營(yíng)商IREN簽署了一份約97億美元的合同 , 其中包括大約58億美元的英偉達(dá)GB300芯片與相關(guān)設(shè)備 , 用于進(jìn)一步擴(kuò)展Azure的AI計(jì)算能力 。
不止云廠商 , 一眾大模型企業(yè)也是英偉達(dá)的基本盤 , 馬斯克此前曾表示xAI的Colossus超算在2025年已部署約20萬塊英偉達(dá)GPU , 用于訓(xùn)練Grok系列模型 , 并計(jì)劃進(jìn)一步擴(kuò)容 。
不過 , 盡管英偉達(dá)的GPU體系雖然市場(chǎng)份額高達(dá)八成以上 , 但其高成本與軟件生態(tài)鎖定 , 也讓一些頭部用戶開始尋求新的供應(yīng)鏈渠道 。
另一邊 , 谷歌TPU在某些推理與訓(xùn)練場(chǎng)景上擁有更低成本的優(yōu)勢(shì) , 并且與云服務(wù)深度整合 , 這使得市場(chǎng)近年來對(duì)其興趣不斷增長(zhǎng) 。
幾周前 , 曾有媒體披露Meta正在評(píng)估在2027年后引入谷歌自研芯片的可能性 , 相關(guān)合作規(guī)?;蜻_(dá)數(shù)十億美元 , 這使TPU有機(jī)會(huì)成為英偉達(dá)之外的一個(gè)重要替代樣本 。
類似的選擇也出現(xiàn)在Anthropic身上 。 去年10月 , Anthropic宣布將大幅擴(kuò)大與Google Cloud的合作 , 計(jì)劃利用多達(dá)一百萬顆TPU芯片、總價(jià)值達(dá)到數(shù)十億美元的算力資源 , 來訓(xùn)練和服務(wù)下一代Claude模型 , 并預(yù)計(jì)在今年實(shí)現(xiàn)超過1吉瓦的計(jì)算能力上線 。
Google Cloud CEO庫(kù)里安稱 , “Anthropic大幅擴(kuò)大使用TPU , 反映了團(tuán)隊(duì)多年來在使用TPU時(shí)觀察到的強(qiáng)勁價(jià)格性能比和效率 。 ”
不過 , Anthropic和谷歌的合作離不開資本面背景 。 谷歌既是Anthropic的早期投資者 , 也是其最重要的云算力提供方之一 。 公開信息顯示 , 谷歌已累計(jì)向Anthropic投資超過30億美元 , 持有約14%股權(quán) 。
Anthropic CFO Krishna Rao此前曾表示:“Anthropic與Google有長(zhǎng)期伙伴關(guān)系 , 這次擴(kuò)展有助于持續(xù)增長(zhǎng)定義前沿AI所需的算力 。 ”
通過加大對(duì)TPU的使用 , Anthropic在成本與算力供給上獲得更高確定性 , 同時(shí)也加深了與谷歌在云基礎(chǔ)設(shè)施層面的長(zhǎng)期合作關(guān)系 。
不過 , AI產(chǎn)業(yè)版圖中 , 即使是資本合作伙伴之間 , 也可能出現(xiàn)產(chǎn)品和業(yè)務(wù)上的競(jìng)爭(zhēng) 。 字母AI在近期的《爭(zhēng)奪AI制高點(diǎn) , 谷歌和Anthropic必有一戰(zhàn)》一文中曾總結(jié) , “如果Anthropic利用谷歌的TPU訓(xùn)練出了遠(yuǎn)超Gemini的模型 , 那谷歌在應(yīng)用層的競(jìng)爭(zhēng)將變得更加困難 。 ”
正是在這一現(xiàn)實(shí)之下 , “合縱連橫”開始成為AI基建格局中的關(guān)鍵邏輯 。 算力層面 , 面對(duì)英偉達(dá)在GPU與生態(tài)上的長(zhǎng)期主導(dǎo) , 谷歌以TPU、云服務(wù)和資本關(guān)系拉起穩(wěn)定合作網(wǎng)絡(luò) , 模型公司也借此獲得更可控的算力與成本 , 此為“合縱” 。
但這種結(jié)盟并不會(huì)延伸到產(chǎn)品前臺(tái) 。 進(jìn)入模型與應(yīng)用層 , 競(jìng)爭(zhēng)重新回到零和博弈:Gemini、Claude、ChatGPT在前端要面臨正面廝殺 , “連橫”隨之出現(xiàn) , 即在基礎(chǔ)設(shè)施上交錯(cuò)合作 , 但在產(chǎn)品上又各自為戰(zhàn) 。
英偉達(dá)與谷歌兩大陣營(yíng)并存 , 恰恰放大了這種合縱連橫的結(jié)構(gòu) 。 不過 , 說起這一版圖的形成以及兩條路徑之爭(zhēng)的起源 , 還要追溯到AI爆發(fā)前的10年 。
02
GPU與TPU之爭(zhēng) , 源自“前AI時(shí)代”
在生成式AI成為全球焦點(diǎn)之前 , 英偉達(dá)已提前十余年布局算力生態(tài) 。
2006年CUDA發(fā)布 , 使GPU首次成為可被通用編程調(diào)用的并行計(jì)算平臺(tái) , 開發(fā)者得以繞開硬件細(xì)節(jié)直接釋放算力潛能 。 隨后 , PyTorch、TensorFlow等主流框架相繼圍繞CUDA構(gòu)建 , GPU也從圖形加速器演變?yōu)锳I訓(xùn)練與推理的事實(shí)標(biāo)準(zhǔn)底座 。
CUDA的價(jià)值不止“讓GPU可編程” , 更在于打造了獨(dú)家軟件生態(tài)這一壁壘 。
英特爾前CEO帕特·基辛格 , 在去年接受采訪時(shí)直言 , 英偉達(dá)真正的護(hù)城河在于“CUDA以及NVLink這樣的軟件和互連體系” , 而不僅僅是單一代GPU的性能優(yōu)勢(shì) 。
這一體系優(yōu)勢(shì)在2012年迎來爆發(fā)點(diǎn) , 多倫多大學(xué)的Alex Krizhevsky等人利用兩塊英偉達(dá)GPU在ImageNet挑戰(zhàn)賽上訓(xùn)練出AlexNet并一舉奪魁 , 展示了大規(guī)模神經(jīng)網(wǎng)絡(luò)與GPU并行計(jì)算結(jié)合的巨大潛力 , 成為行業(yè)關(guān)注的里程碑事件 。
但在深度學(xué)習(xí)浪潮爆發(fā)的同時(shí) , 大規(guī)模神經(jīng)網(wǎng)絡(luò)對(duì)算力效率和能耗也提出新要求 。 此時(shí) , 谷歌意識(shí)到 , 依賴通用GPU在大規(guī)模推理和訓(xùn)練時(shí) , 存在著成本高且功耗大等問題 。
于是 , 從2015年起 , 谷歌開始研發(fā)TPU——一種面向神經(jīng)網(wǎng)絡(luò)推理負(fù)載的定制芯片 。 彼時(shí)的目標(biāo)還不是今天的通用AI計(jì)算 , 而是支撐搜索、翻譯和廣告等核心業(yè)務(wù)中的深度學(xué)習(xí)模型 , 在數(shù)據(jù)中心內(nèi)以更低能耗、更穩(wěn)定時(shí)延完成大規(guī)模推理任務(wù) 。
2018年 , 谷歌將TPU正式引入Google Cloud , 對(duì)外開放使用 , 試圖證明TPU在云端的現(xiàn)實(shí)價(jià)值 。 ResNet-50等模型的測(cè)試數(shù)據(jù)顯示 , TPU上訓(xùn)練可顯著縮短時(shí)間并降低成本 , 使原本需要數(shù)天的任務(wù)在更短周期內(nèi)完成 。
不過 , 在幾年后的生成式AI爆發(fā)初期 , 英偉達(dá)迅速成為了那個(gè)最大贏家 。 2020—2022年 , 大模型訓(xùn)練從研究走向工程化 , A100等GPU憑借成熟的軟件生態(tài)和穩(wěn)定供給 , 成為各大云廠商和模型公司的默認(rèn)選擇 。
TPU的轉(zhuǎn)折點(diǎn) , 出現(xiàn)在算力需求持續(xù)放大之后 。 2023年起 , 隨著大模型推理負(fù)載激增、電力與成本壓力上升 , 谷歌TPU因在單位能耗和價(jià)格性能比上的優(yōu)勢(shì)開始受到行業(yè)重視 , 逐步獲得更廣泛采用 。
字母AI在此前的報(bào)道《AI在美國(guó)“與民爭(zhēng)電”》中曾披露 , AI數(shù)據(jù)中心的驚人能耗 , 已經(jīng)迫使美國(guó)AI企業(yè)親自下場(chǎng) , 投身能源基礎(chǔ)設(shè)施建設(shè) 。 因此 , TPU的能耗和成本優(yōu)勢(shì) , 無疑是吸引諸多AI企業(yè)用戶的重要因素 。
另一方面 , 為降低開發(fā)者遷移門檻 , 谷歌近年明顯加大了TPU的軟件生態(tài)投入 。 去年 , 曾有多家外媒披露 , 谷歌正推進(jìn)代號(hào)為TorchTPU的內(nèi)部項(xiàng)目 , 核心目標(biāo)是提升TPU對(duì)PyTorch的原生支持能力 。
據(jù)了解 , 該項(xiàng)目與Meta的需求密切相關(guān) , 部分軟件組件可能開源 , 以縮小TPU與英偉達(dá)GPU在主流開發(fā)環(huán)境中的使用差距 。
事實(shí)上 , 以谷歌為代表的TPU生態(tài)的發(fā)展 , 一定程度上也宏觀層面 , 對(duì)沖了英偉達(dá)一直占據(jù)絕對(duì)主導(dǎo)地位的擔(dān)憂 。
“讓一家企業(yè)成為全球AI未來的守門人是危險(xiǎn)的 , 會(huì)帶來嚴(yán)重的經(jīng)濟(jì)風(fēng)險(xiǎn) 。 ”美國(guó)參議員伊麗莎白·沃倫 , 曾這樣呼吁美國(guó)司法部啟動(dòng)對(duì)英偉達(dá)反壟斷調(diào)查 。
尤其對(duì)于OpenAI這樣的頭部模型公司而言 , “合縱聯(lián)橫”的算力格局 , 無疑比依賴單一技術(shù)路線更具戰(zhàn)略彈性 。
【英偉達(dá)和谷歌,美國(guó)AI棋局的楚河漢界】03
OpenAI的“搖擺”和“押注”
在大模型爆發(fā)期 , OpenAI就與對(duì)英偉達(dá)的算力體系緊緊捆綁在一起 。 公開信息顯示 , 在GPT-3時(shí)代 , OpenAI曾動(dòng)用約3600臺(tái)HGXA100服務(wù)器、近3萬塊英偉達(dá)GPU進(jìn)行訓(xùn)練 。
這種緊密的關(guān)系一直持續(xù)到今天 , 去年年底 , OpenAI宣布和英偉達(dá)展開新一輪合作 , 計(jì)劃部署至少10吉瓦的英偉達(dá)算力系統(tǒng) , 這些系統(tǒng)將包括數(shù)百萬塊英偉達(dá)GPU , 用于訓(xùn)練并運(yùn)行下一代模型 。 首批算力預(yù)計(jì)將在今年下半年上線 。
不過 , 這種緊密捆綁背后 , OpenAI也在探索“去中心化”的舉措 。 尤其是隨著近年來模型規(guī)模與推理負(fù)載急劇上升 , 新的算力供給路徑迫在眉睫 。
去年6月 , 有媒體披露稱OpenAI開始通過Google Cloud租用TPU , 為包括ChatGPT在內(nèi)的產(chǎn)品提供部分推理算力 , 希望借此降低推理成本 。 這是OpenAI首次計(jì)劃批量使用非英偉達(dá)芯片 。

OpenAI發(fā)言人隨后稱“公司目前僅處于對(duì)部分谷歌TPU的早期測(cè)試階段 , 尚無計(jì)劃進(jìn)行大規(guī)模部署 。 ”
但這份相對(duì)克制的回應(yīng) , 仍難以掩蓋OpenAI尋求供應(yīng)鏈平衡的意圖 。 Forrester高級(jí)分析師Charlie Dai此前指出 , OpenAI開始測(cè)試TPU , 反映出“隨著推理成本不斷上升 , AI提供商正嘗試在英偉達(dá)GPU之外 , 尋找更具成本控制能力的專用方案” 。
而在幾個(gè)月后 , OpenAI在10月宣布與AMD簽署協(xié)議 , 將在未來幾年部署最高6吉瓦的AMD GPU資源 , 計(jì)劃從今年下半年開始落地 , 進(jìn)一步做實(shí)了上述觀點(diǎn) 。
時(shí)間來到2026年初 , 近期 , Cerebras也被納入OpenAI的算力“雞蛋籃” 。 外媒報(bào)道稱 , 雙方簽署了一項(xiàng)多年期協(xié)議 , 總額超過100億美元 , 對(duì)應(yīng)最高750兆瓦算力 , 并將分階段交付至2028年 。
OpenAI在公告中由高管Sachin Katti發(fā)言 , 稱其算力策略是構(gòu)建一個(gè)“Resilient Portfolio”(有韌性、抗風(fēng)險(xiǎn)的算力組合) , 按不同負(fù)載匹配不同系統(tǒng);在這一組合中 , Cerebras以“低時(shí)延推理”能力發(fā)揮補(bǔ)位作用 。
值得關(guān)注的是 , 在技術(shù)路線上 , Cerebras走的是另一條路:把整片硅晶圓直接做成一顆“晶圓級(jí)芯片”(WSE-3) 。
Cerebras一顆芯片面積約4.6萬平方毫米 , 是英偉達(dá)主流數(shù)據(jù)中心GPU(約800平方毫米)的數(shù)十倍 , 集成約4萬億晶體管和90萬個(gè)核心 , 并將計(jì)算與存儲(chǔ)高度集中在同一器件內(nèi) , 從而減少GPU集群中常見的跨卡通信瓶頸 。
而在資本層面 , 這樁合作背后有一個(gè)無法忽視的背景:OpenAI首席執(zhí)行官奧特曼 , 此前以個(gè)人身份投資過Cerebras 。
另一邊 , OpenAI的布局并未止步于引入外部算力替代方案 。 去年以來 , 多家外媒披露OpenAI已在內(nèi)部組建芯片團(tuán)隊(duì) , 并與博通展開合作 , 推進(jìn)自研AI加速器芯片 , 研發(fā)重點(diǎn)是圍繞自身模型體系 , 優(yōu)化推理負(fù)載與系統(tǒng)級(jí)效率 。
奧特曼曾在和博通的合作公告中表示:“通過開發(fā)我們自己的加速器(芯片) , 可以將我們?cè)谧钋把啬P秃彤a(chǎn)品設(shè)計(jì)中學(xué)到的經(jīng)驗(yàn)直接嵌入硬件 , 從而釋放更強(qiáng)大的能力 。 ”
而在谷歌TPU和其他供應(yīng)商之間的搖擺 , 一定程度上也映射出OpenAI對(duì)于谷歌這位競(jìng)爭(zhēng)對(duì)手態(tài)勢(shì)的警惕 。
蘋果在近期宣布與谷歌達(dá)成多年合作 , 將用Gemini模型升級(jí)Siri與Apple Intelligence 。 毫無疑問 , 這一合作將強(qiáng)化谷歌在與OpenAI競(jìng)賽中的位置 , 鞏固其在移動(dòng)端AI入口的生態(tài)影響力 。
更長(zhǎng)遠(yuǎn)地看 , 美國(guó)AI算力產(chǎn)業(yè)格局并非單純的陣營(yíng)間的商戰(zhàn) , 而是一條可跨越的“楚河漢界” 。 在基礎(chǔ)設(shè)施層 , 英偉達(dá)與谷歌分別構(gòu)筑起兩套穩(wěn)定運(yùn)轉(zhuǎn)的算力基座 , 成為企業(yè)繞不開的長(zhǎng)期投入方向 。
但這條“界線”并不意味著割裂 。 對(duì)模型公司而言 , 算力是必須“合縱”的底座 , 而產(chǎn)品與模型競(jìng)爭(zhēng)才是真正的戰(zhàn)場(chǎng) 。 越是頭部玩家 , 越需要在底層結(jié)盟、在上層博弈 。
作為模型側(cè)的頭部玩家 , OpenAI的多路徑布局 , 正是這一現(xiàn)狀的縮影:既要依托英偉達(dá)的強(qiáng)大生態(tài) , 但也不能持續(xù)單點(diǎn)依賴 。 同時(shí)開始布局自研算力 , 為下一輪算力與模型競(jìng)賽預(yù)留空間 。
2026年 , 美國(guó)AI產(chǎn)業(yè)的“楚河漢界”之間 , “合縱連橫”的戲碼仍將繼續(xù)上演 。

    推薦閱讀