
文章圖片

文章圖片

文章圖片
本月初 , 英偉達超越微軟重奪全球市值第一的寶座 , 算是從DeepSeek帶來的沖擊中緩過了勁 。 但按下葫蘆浮起瓢 , 作為AI行業的“帶頭大哥” , OpenAI最近站出來給英偉達添堵了 。 根據海外媒體The Information的相關報道顯示 , OpenAI準備將谷歌的TPU芯片納入采購清單 , 以為ChatGPT及其他AI產品提供算力支持 。
【OpenAI甩開英偉達,谷歌TPU“橫刀奪愛”】
在此之前 , OpenAI的大模型預訓練和推理都依賴英偉達GPU , 也使得其成為了后者最大的算力芯片采購方 。 此次轉向谷歌的TPU芯片 , 就意味著OpenAI方面正在嘗試擺脫對英偉達的依賴 , 從而實現算力芯片供應的多元化 。 同時繼蘋果之后 , 谷歌的TPU又一次贏得AI大廠的訂單 , 也讓它徹底擺脫了“自家玩具”的定位 。
OpenAI選擇用谷歌TPU取代部分英偉達GPU的原因其實很簡單 , 因為后者的價格太高、太搶手了 。 據悉 , 英偉達的旗艦芯片B200擁有高達2080億的晶體管數量和192GB的HBM3E內存容量 , 提供8TB/s的內存帶寬 , 采用的是Blackwell架構 , AI性能在FP8及新的FP6上都可以達到20PFLOPS , 是前代Hopper構架H100運算性能8PFLOPS的2.5倍 。
可是配備8顆B200的英偉達DGX B200 AI服務器 , 售價就高達50萬美元 , 并且根據摩根士丹利的相關報告顯示 , 英偉達Blackwell GPU未來12個月的產能已經被預定一空 。
作為對比 , 谷歌的TPU芯片價格則更加低廉 。 以蘋果打造Apple Foundation Model模型時采購的谷歌TPUv5p為例 , 盡管雙方并未披露這筆訂單的具體信息 , 但業界普遍認為TPUv5p的單價或在數千美元級別 。
其實OpenAI與谷歌AI模型的API定價 , 也可以從側面證明TPUv5p的低成本特質 。 OpenAI旗艦模型GPT-o3提供的輸入價格是10美元/百萬tokens、輸出價格是40美元/百萬tokens , 而谷歌旗艦模型Gemini 2.5 Pro的輸入價格和輸出價格分別是1美元/百萬tokens和4美元/百萬tokens 。
超高的性價比使得Gemini 2.5 Pro在問世之后很快就受到AI業界的青睞 , 毫無疑問TPU芯片居功至偉 。 在AI領域 , TPU(專用向量處理器)憑借高度特化實現了比GPU(圖形處理器)更便宜 , 同時它也是谷歌專為加速機器學習中的張量(矩陣)運算所設計的定制硬件 , 其采用脈動陣列(Systolic Array) 設計 , 通過流水線式數據流高效處理矩陣乘法 , 減少了數據移動和內存訪問延遲 。
事實上 , TPU是一個專門針對自然語言處理、圖像識別等典型AI任務進行優化的芯片 , 與通用的GPU截然相反 。 英偉達的GPU最初是為圖形渲染服務 , 而實現高性能圖形渲染的一個重要方法就是并行計算 。 比如在渲染1920×1080分辨率的畫面時 , GPU會將400萬個像素分配給4000個核心同步處理 , 每個核心只需要完成“這個像素該顯示什么顏色”的簡單指令即可 。
這也是為什么CPU通常只有十幾個核心 , 可GPU的核心規模就會達到成千上萬的原因 。 到了AI時代 , 由于AI場景往往需要處理大規模數據和復雜的計算任務 , 通常會呈現出高度并行化的狀態 , 所以天然更契合采用并行計算的GPU 。 再搭配英偉達耕耘十余年的并行計算框架CUDA , 直接就讓他們的GPU絲滑切入了AI計算領域 。
簡而言之 , 類似“瑞士軍刀”的GPU可謂是功能強大 , 既能用于渲染圖形 , 又可以用來進行AI訓練和推理 , 而TPU的用途則非常單一 , 只能用于AI計算 。
對于OpenAI而言 , 圖形渲染能力對他們顯然毫無意義 , 并行計算能力才是所需的資源 。 從某種意義上來說 , 過去數年時間里 , OpenAI采購英偉達GPU時其實一直是在“買櫝還珠” 。
那么問題就來了 , 早在2018年 , 谷歌的TPU芯片就開啟了外銷商用的步伐 , 為什么OpenAI直到2025年才將其納入采購清單呢?其實這就要歸功于DeepSeek了 。 其通過稀疏化訓練、動態網絡架構、混合專家系統(MoE)等工程層面的創新 , 讓大模型實現了低廉的訓練和部署成本 。
不僅如此 , 作為開源模型 , DeepSeek的成功還讓相當一批AI廠商放棄大模型賽道 , 并轉向智能體、AI應用 。 以至于進入2025年以來 , 曾被各大AI廠商掛在嘴邊的“預訓練”正逐漸被“推理”取代 , 推理需求的增長曲線更是變得異常陡峭 。
簡而言之 , 如今業界對于推理算力的需求其實要比訓練算力更大 , 除了大廠之外 , AI創業者也已經放棄打造更強AI模型的想法 , 轉而開始利用現有AI模型的能力來提供AI視頻、AI生圖、AI代碼等服務 。 恰好谷歌的TPUv5p在推理任務中支持混合精度 , 可以很好地平衡精度與速度 , 更適用于提供推理算力 。
所以雖然在CUDA生態的加持下 , 英偉達GPU在AI訓練上無人能敵 , 可偏偏DeepSeek戳破了訓練算力需求這個泡沫 , 就給了OpenAI實現算力供應多元化的機會 。 其實這對于國內AI廠商來說也是一個好消息 , 畢竟英偉達在CUDA生態上的積累不是一朝一夕就能彎道超車的 , 但用TPU代替GPU現階段更有可行性 。
推薦閱讀
- “中國英偉達”們,開始圍攻美國英偉達
- “中國英偉達”,終于被這個男人熬出來了
- 36氪首發 | 從快手獨立的AI芯片公司融資數億元,視頻壓縮性能超英偉達
- 英偉達麻煩了?OpenAI轉向谷歌TPU芯片,大家開始去英偉達化?
- OpenAI四位華人學者入職Meta,小扎絕密「天才名單」曝光
- OpenAI人才防線崩塌:被Meta一周內兩度挖角七人
- 獨家揭秘OpenAI核心文件:AGI五級突破實錘,微軟130億投資或打水漂
- 投行稱英偉達市值將沖擊6萬億美元 AI之外還有機器人萬億市場
- OpenAI和LG電子將在家電研發創新上進行合作 年初就已開始探討
- 騰訊開源推理模型!13B參數比肩OpenAI o1,1張GPU就能跑
