「美隊」老黃深夜扔出地表最強GPU!算力百倍狂飆,下次改演雷神

「美隊」老黃深夜扔出地表最強GPU!算力百倍狂飆,下次改演雷神

文章圖片

「美隊」老黃深夜扔出地表最強GPU!算力百倍狂飆,下次改演雷神

文章圖片

「美隊」老黃深夜扔出地表最強GPU!算力百倍狂飆,下次改演雷神

文章圖片

「美隊」老黃深夜扔出地表最強GPU!算力百倍狂飆,下次改演雷神

文章圖片

「美隊」老黃深夜扔出地表最強GPU!算力百倍狂飆,下次改演雷神

文章圖片

「美隊」老黃深夜扔出地表最強GPU!算力百倍狂飆,下次改演雷神

文章圖片

「美隊」老黃深夜扔出地表最強GPU!算力百倍狂飆,下次改演雷神

文章圖片

「美隊」老黃深夜扔出地表最強GPU!算力百倍狂飆,下次改演雷神

文章圖片

「美隊」老黃深夜扔出地表最強GPU!算力百倍狂飆,下次改演雷神

文章圖片

「美隊」老黃深夜扔出地表最強GPU!算力百倍狂飆,下次改演雷神

文章圖片

「美隊」老黃深夜扔出地表最強GPU!算力百倍狂飆,下次改演雷神

文章圖片

「美隊」老黃深夜扔出地表最強GPU!算力百倍狂飆,下次改演雷神

文章圖片

「美隊」老黃深夜扔出地表最強GPU!算力百倍狂飆,下次改演雷神

文章圖片

「美隊」老黃深夜扔出地表最強GPU!算力百倍狂飆,下次改演雷神

文章圖片

「美隊」老黃深夜扔出地表最強GPU!算力百倍狂飆,下次改演雷神

文章圖片

「美隊」老黃深夜扔出地表最強GPU!算力百倍狂飆,下次改演雷神

文章圖片

「美隊」老黃深夜扔出地表最強GPU!算力百倍狂飆,下次改演雷神

文章圖片

「美隊」老黃深夜扔出地表最強GPU!算力百倍狂飆,下次改演雷神

文章圖片

「美隊」老黃深夜扔出地表最強GPU!算力百倍狂飆,下次改演雷神

文章圖片


編輯:桃子 好困
【新智元導讀】凌晨 , 老黃GTC主題演講華盛頓首秀 , 直接亮出下一代GPU核彈——Vera Rubin , 性能狂飆100倍 。 目前 , Blackwell已全面量產 , 2026年底兩大GPU王牌預計爆賺5000億美金 。


英偉達GTC大會 , 首次在華盛頓召開 。
在近兩小時演講中 , 老黃不僅再次上演了一波AI美隊 , 而且還給出了AI時代獨一份的洞察——
AI不是工具 , 而是會用工具的「工人」 。



當老黃首次掏出下一代「殺手锏」Vera Rubin超級芯片時 , 全場都震撼了 。
相較于九年前 , 他親手交付給OpenAI的首個超算DGX-1 , 性能足足提升了100倍 。 并且明年就能量產 。

當然 , 老黃的野心遠不止于硬件 。 接下來的一系列震撼合作 , 將英偉達的AI帝國展示在了所有人面前:

  • AI原生6G:推出「AI on RAN」技術 , 將AI與6G網絡深度融合 , 讓基站成為邊緣的AI計算中心 。
  • 超算基建:與美國能源部合作 , 建造7座全新的AI超算 。
  • 自動駕駛:發布「開箱即用」的DRIVE Hyperion平臺 , 讓汽車「生而為Robotaxi」 。
  • 量子計算:發布NVQLink技術 , 首次將AI超算與量子處理器無縫連接 , 加速量子計算的實用化進程 。
  • 物理AI:通過Omniverse中的數字孿生技術 , 訓練「物理AI」 , 加速機器人在現實世界中的部署 , 目標直指美國「再工業化」 。

在三大Scaling Law驅使下 , 英偉達內部早已形成了良性正循環 。
老黃預測 , 在2026年底前 , 僅憑「Blackwell+Rubin」就足以沖擊5000億美元的營收 。
而且 , 這一數字還未將中國市場計算在內 。



下一代Vera Rubin首秀
性能狂飆百倍


現場 , 老黃再次搬出了 , 未來三年英偉達GPU路線圖 , 從Blackwell , 到Rubin , 再到Feynman 。

他激動官宣 , 短短9個月后 , Blackwell芯片已在亞利桑那州全面量產 。

而真正站在全場C位的 , 還是下一代Vera Rubin的首次亮相 。
這是英偉達第三代NVLink 72機架級超級計算機 , 徹底實現了無線纜連接 。
目前 , Vera Rubin超級芯片已在實驗室完成測試 , 預計明年10月可以投產 。

這塊超級芯片計算能力達到100 Petaflops , 是DGX-1性能的100倍 。
換句話說 , 以前需要25個機架 , 現在一個Vera Rubin就能完成 。

如下 , 便是Rubin計算托盤 , 推理性能可達440PF 。
其底部配備了8個Rubin CPX GPU、BlueField-4數據處理器 , 還有兩顆Vera CPU , 以及4個Rubin封裝——總共8個GPU , 全部實現了無纜、全液冷 。
同時 , 英偉達還引入了一種全新「上下文處理器」(Context Processor) , 支持超100萬token上下文 。
如今 , AI模型要處理、記憶的上下文越來越多 , 它可以在回答問題前 , 學習和閱讀成千上萬份PDF、論文、視頻 。

此外 , BlueField-4革命性處理器 , 可以加速AI模型加載時間 。

還有NVLink交換機 , 可以讓所有GPU同步傳輸數據;以太網交換機Spectrum-X可以確保處理器同時通信而不擁堵 。
再加上Quantum交換機 , 三者結合 , 系統全部兼容InfiniBand、Quantum 和 Spectrum Ethernet 。


所有這些組合起來 , 一個完整的機架塞滿150萬個零件 , 重量足足有兩噸 。
它的主干網絡 , 一秒內就能傳輸相當于整個互聯網的流量 , 刷新全球最快的token生成速度 。
老黃表示 , 「一個1GW規模的數據中心 , 大概需要8000-9000臺這樣的機架 。 這就是未來的AI工廠」!




老黃拋出5000億預言
AI美隊再上線


GPU是AI革命的核心引擎 , 而AI的世界 , 遠不止ChatGPT 。
主題演講上 , 老黃親自科普了AI的定義 。
一上來 , 他就給大眾認知來了一個降維打擊 , AI并不等于聊天機器人 。
他將其比作一個數據密集型的「編程」 , 在CPU時代的舊世界 , 人們手工編碼 , 軟件在CPU上運行 , Windows主導了一切 。
而在當下 , 機器學習訓練 , 模型直接跑在GPU之上 。
能源-GPU-超算-模型-應用 , 全棧的能力構成了完整的AI 。

接下來 , 老黃還提出了一個對于AI的深刻洞察——
過去的軟件產業 , 本質上是在「造工具」 , Excel、Word、瀏覽器皆是工具 。
在IT領域 , 這些工具可能就是「數據庫」之類的 , 其市場規模大約在一萬億美元左右 。
但AI不是工具 , 是「工人」 。 事實上 , AI是「會用工具的工人」 。
這就是根本性差異 。


到目前為止 , 人類發明的一切東西 , 本質上都是工具 , 都是給自己用的 。
但這回是歷史上頭一次 , 技術自己會「干活」了 。
老黃舉例道 , 英偉達每一位工程師都在用Cursor , 生產力得以大幅提升 。 而Cursor使用的工具是VS Code 。
AI本身也正在成為一個「全新的產業」 , 當人們把各種形式的信息編程token之后 , 就需要一個「AI工廠」 。
10x的性能 , 1/10的成本


「AI工廠」不同于過去的數據中心 , 是因為它基本上只做一件事——運行AI 。
一來 , 生產盡可能有價值、更智能的token;其次 , 要用極高的速度將其生產出來 。
過去兩年 , 業界讓AI學會了變得更加聰明的方法 , 預訓練是第一階段 。
下一步就是后訓練 , 再之后就是測試時 , 讓AI不斷思考(Long Thinking) 。

這也是老黃一直以來 , 反復強調的三大Scaling Law 。
模型越聰明 , 使用的人越多;用的人越多 , 需要的算力越多 。
與此同時 , 摩爾定律邊際趨緩 , 僅靠狂堆晶體管 , 無法解決兩條指數曲線帶來的「饑餓感」 。
那么 , 摩爾定律已死 , 又該如何將成本大幅壓下來?
老黃給出的答案是:極致協同設計(Extreme Co-design) 。
英偉達是當今世界上 , 唯一一家真正從一張白紙開始 , 同時思考芯片、系統、軟件、模型、應用的公司 。
他們的協同設計 , 將AI算力實現了從Scale up到Scale out , 再到Scale across的擴展 。

Grace Blackwell NVL72 , 一臺思考機器 , 就是英偉達「協同設計」的典型代表 。

為了更直觀說明 , 老黃再次上演「芯片版美隊」 , 手里拿著巨型芯片 , 由72塊GPU無縫互聯 。

他還調侃道 , 「下次要演雷神 , 一伸手 , 芯片就到手里了」
為了駕馭萬億級參數模型 , 它采用了MoE架構 。 傳統系統受限于GPU間互聯帶寬 , 一塊GPU要扛32位專家的計算 。
在NVLink 72架構下 , 每塊GPU可以放4位專家 。

SemiAnalysis最新基準測試顯示 , Grace Blackwell每塊GPU的性能 , 是H200的十倍 。
只多了一倍晶體管 , 速度卻快了十倍 , 秘訣就在于——極致協同設計 。
GB200 , 這臺世界上最昂貴的計算機 , 卻能生成成本最低的token 。

它的極致性能 , 均攤了每一次計算的總擁有成本(TCO) , 也就是說——
10倍性能 , 十分之一成本 。



而此刻 , 這一突破正逢其時 。
老黃展示了 , 全球六大云巨頭的資本支出曲線(CapEx) , 正以史無前例的速度飆升 。

它還聯手能源部 , 官宣未來要建七大全新AI超算 。

與此同時 , 老黃還指出 , 這場變革不是單線的 , 而是「雙平臺遷移」 。
即通用計算轉向加速計算 , 工具計算轉向智能計算 。
而英偉達GPU是唯一兼容以上所有的架構 , 包括加速計算和AI 。

最令人震驚是 , 他預測 , 截至2026年 , Blackwell+Rubin的可預見性收入累計5000億美元 。
算上目前已經出貨的600萬塊Blackwell , 未來兩年將達2000萬GPU出貨量 , 相較于Hopper增長5倍(400萬塊) 。

老黃正在釋放一種信號——AI工廠已成新基建 。
開源扛把子 , 沒有弱項


不僅如此 , 老黃這場演講 , 還在向世界宣告:英偉達不僅是算力之王 , 更是AI生態的絕對核心 。
老黃一針見血 , 「過去幾年 , 開源AI在推理、多模態、蒸餾效率三大維度上 , 實現巨大飛躍」 。

正是這些進步 , 讓開源模型第一次真正成為開發者手中非常實用的工具 。
全世界 , 都離不開開源 。
為此 , 英偉達也在全力投入這一方向 。 目前 , 他們在全球開源貢獻榜上 , 23個模型上榜 , 覆蓋了語言、物理AI、語音、推理等全領域 。
我們擁有全球第一的語音模型、第一的推理模型、第一的物理AI模型 。 下載量也非常驚人 。






物理AI時代
三臺計算機鑄真神


當AI走向應用最后一層堆棧 , 那便是物理AI(Physical AI) 。
一直以來 , 老黃認為 , 要實現物理AI , 需要三臺計算機——
一個是GPU超算用于訓練 , 一個通過Omniverse Computer用于模擬 , 另一個是機器人計算機 。
以上這三種計算機上都運行著CUDA , 由此才能推動「物理AI」發展 , 也就是理解物理世界、物理定律、因果關系的AI 。

目前 , 英偉達正聯手伙伴 , 打造一個工廠級的物理AI 。 一旦建成 , 就會有大量機器人在數字孿生的世界中工作 。
Robotaxi , 也是一種機器人


在自動駕駛領域 , 英偉達推出了一套「開箱即用的L4級自動駕駛底座」——DRIVE AGX Hyperion 10 。
它搭載了NVIDIA DRIVE AGX Thor系統級芯片、經過安全認證的NVIDIA DriveOS操作系統、一套經過完整認證的多模態傳感器套件(包含14個高清攝像頭、9個雷達、1個激光雷達和12個超聲波傳感器)以及認證的板卡設計 。

  • 算力與模型:共有兩顆基于Blackwell架構的DRIVE AGX Thor , 每顆算力超2000 FP4 TFLOPS(1000 INT8 TOPS) , 專為Transformer、VLA與GenAI優化 , 360°融合多模態傳感器 , 面向L4自動駕駛 。
  • 迭代與驗證:平臺可OTA升級、兼容現有AV軟件 , 并引入Foretellix Foretify Physical AI工具鏈做測試與驗證;同時開放全球最大多模態AV數據集(1700小時、25國) , 用于基礎模型的開發/后訓練/驗證 。


在數萬億英里真實及合成駕駛數據的加持下 , 新一代VLA(視覺-語言-動作)推理模型 , 讓車輛不只能識別紅綠燈 , 還能在無結構路口或人車行為突變時做出類人判斷(比如理解交警臨時指揮、突發改道) , 而且是在車上實時完成 。
對于行業來說 , 公司可以直接拿到可量產的參考架構與數據/驗證閉環 , 更快把Robotaxi或無人配送車跑起來 。




NVIDIA ARC:用AI重新定義6G網絡


在通信行業 , 英偉達則宣布與諾基亞達成合作 , 并推出了支持AI原生6G的加速計算平臺——Aerial RAN Computer Pro(ARC-Pro) 。
  • ARC-Pro = AI基站主機:融合了「連接+計算+感知」能力的6G-ready加速計算平臺;運營商未來可以通過軟件升級的方式從5G-Advanced升到6G 。
  • AI-RAN = 無線+AI共生:把AI推理(如頻譜調度、節能控制、用戶體驗優化)和傳統RAN處理跑在同一套、由GPU加速的軟定義基礎設施上;同一站點還能順帶承載生成式/智能體AI的邊緣服務 , 有效利用「基站閑時算力」 。



與此同時 , 英偉達還將以每股6.01美元的認購價向諾基亞投資10億美元 。
交易宣布后 , 諾基亞股價收盤上漲20.86% , 創下自2016年1月下旬以來的新高 。




NVQLink:打通AI與量子的融合之路


【「美隊」老黃深夜扔出地表最強GPU!算力百倍狂飆,下次改演雷神】在量子計算領域 , 眾所周知 , 量子計算機的核心「量子比特」(Qubits) , 雖具備碾壓傳統計算機的并行計算潛力 , 但在計算過程會不斷產生錯誤 。
為了讓它們正常工作 , 就必須依賴一臺傳統的超級計算機 , 通過一條要求嚴苛的超低延遲、超高吞吐量的連接 , 實時進行復雜的校準和糾錯 。
這條連接線 , 就是量子計算通往現實世界的最大瓶頸 。

為此 , 英偉達推出了一款全新的互連技術——NVQLink , 首次將量子處理器與AI超級計算機無縫地、緊密地連接在一起 , 形成一個單一、連貫的超級系統 。
  • 硬件層:通過NVQLink , 研究人員可以把不同量子路線(超導、離子阱、光子等)的處理器和控制硬件直接接到GPU超算上 , 避免了「繞以太網一大圈」的抖動與時延;同時 , 連在一起的GPU集群還可以繼續向外擴展 。

  • 軟件層:通過CUDA-Q , 研究人員可以在同一套編程接口里 , 把CPU、GPU、QPU編排成一臺「混合超算」 , 讓仿真、編排、實時控制能夠在一個平臺里閉環 。

  • 生態層:集合9家美國實驗室、17家量子硬件公司、5家控制系統公司之力 , 目標是把校準、糾錯、混合應用做成可復用的「套路」 。

正如老黃所說:「NVQLink是連接量子和經典超級計算機的羅塞塔石碑 。 它的出現 , 標志著量子-GPU計算時代的正式開啟 。 」

參考資料:
https://www.youtube.com/watch?v=lQHK61IDFH4

    推薦閱讀