黃仁勛搶吃龍蝦:英偉達新核彈10倍算力提升,OpenClaw自由了

黃仁勛搶吃龍蝦:英偉達新核彈10倍算力提升,OpenClaw自由了

文章圖片

黃仁勛搶吃龍蝦:英偉達新核彈10倍算力提升,OpenClaw自由了

文章圖片

黃仁勛搶吃龍蝦:英偉達新核彈10倍算力提升,OpenClaw自由了

文章圖片

黃仁勛搶吃龍蝦:英偉達新核彈10倍算力提升,OpenClaw自由了

文章圖片

黃仁勛搶吃龍蝦:英偉達新核彈10倍算力提升,OpenClaw自由了

文章圖片

【黃仁勛搶吃龍蝦:英偉達新核彈10倍算力提升,OpenClaw自由了】黃仁勛搶吃龍蝦:英偉達新核彈10倍算力提升,OpenClaw自由了

文章圖片

黃仁勛搶吃龍蝦:英偉達新核彈10倍算力提升,OpenClaw自由了

文章圖片

黃仁勛搶吃龍蝦:英偉達新核彈10倍算力提升,OpenClaw自由了

文章圖片

黃仁勛搶吃龍蝦:英偉達新核彈10倍算力提升,OpenClaw自由了

文章圖片

黃仁勛搶吃龍蝦:英偉達新核彈10倍算力提升,OpenClaw自由了

文章圖片

黃仁勛搶吃龍蝦:英偉達新核彈10倍算力提升,OpenClaw自由了

機器之心編輯部
老黃:科技公司的算力焦慮 , 有 1 萬億刀那么大 。
北京時間今天凌晨兩點 , 英偉達 GTC 大會在加州圣何塞正式召開 , 這回的 Keynote 注定要被各大公司 CEO 不斷引用了 。

「我們重新定義了計算 , 就像個人電腦革命和互聯網革命一樣 。 我們現在正處于一個全新平臺變革的開端 。 」英偉達聯合創始人、CEO 黃仁勛說道 。
去年 10 月黃仁勛還在表示 , 他預計到 2026 年底的五個財季內 , 全球公司在 Blackwell 和 Rubin 系統上的支出將達到 5000 億美元 。 現在他表示 , 這一市場將在 2025 年至 2027 年間達到 1 萬億美元 , 60% 的業務將來自超大規模云計算 。

數量直接翻倍 , 原因在于 AI 到了「推理拐點」(The inference inflection) 。 如果說之前 AI 還是在實驗室里「瘋狂訓練」 , 那么現在已經全面進入了「推理和生成」階段 。 算力的需求不是見頂了 , 而是剛剛爆發 。
「那么 , 這合理嗎?」Keynote 剩下的大部分時間 , 黃仁勛都在討論這個問題 。
新一代 Vera Rubin 量產 , 世界從未見過的芯片
今年的新產品不再是一塊芯片 , 而是一個龐大復雜的 AI 算力系統 。
黃仁勛表示 , 基于全新 Vera Rubin 架構的英偉達 NVL72 是一場「豪賭」 。 在 AI 的推理任務上 , 要想把效率做到極致面臨著最大的挑戰 。 在合作伙伴的幫助下 , 英偉達的努力得到了回報 。
NVL72 架構的每瓦 token 性能提升了 50 倍 , 速度提升遠超摩爾定律 。

這就是「token king」 。

基于算力的提升與 AI 技術的發展 , 數據中心過去是存儲文件的地方 , 現在則變成了生成 token 的工廠 。 老黃指出 , 推理是工作負載 , 而 token 則是新的商品 。

在 AI 的推理上 , 更復雜的推理 , 以及更低的延遲將是算力需要解決的挑戰 。 更高的效率也意味著企業更多的利潤 。

Vera Rubin NVL72 是「為智能體 AI 時代注入強大動力的引擎」 。 老黃在臺上展示了 Vera Rubin 的全套系統 , 這是一個龐大而復雜的系統 , 包含七款全新芯片 , 旨在打造全球最大規模的 AI 工廠 , 針對 AI 各個階段進行了優化 , 涵蓋從預訓練、后訓練和測試時擴展到智能體推理的各個環節 。
英偉達展示了 Vera Rubin 平臺的細節 , 包括 Vera CPU、Rubin GPU、NVLink 6 交換機、NVIDIA ConnectX 9 超級網卡、BlueField4 DPU 和 Spectrum-6 以太網交換機 , 以及新集成的 Groq 3 LPU 。
具體來說 , 在 Vera Rubin NVL72 機架上集成了 72 個 Rubin GPU 和 36 個 Vera CPU , 它們通過 NVLink 6 連接 , 并配備 ConnectX-9 SuperNIC 和 BlueField-4 DPU 。 Vera Rubin NVL72 實現了突破性的效率 —— 與 NVIDIA Blackwell 平臺相比 , 前者使用四分之一數量的 GPU 即可訓練大型混合專家模型 , 每瓦推理吞吐量提高了 10 倍 , 每 token 成本僅為十分之一 。

NVL72 專為超大規模 AI 工廠而設計 , 可與 Quantum-X800 InfiniBand 和 Spectrum-X 以太網無縫擴展 , 從而在大規模 GPU 集群中保持高利用率 , 同時縮短訓練時間和降低總體擁有成本 。

還有更大的核彈嗎?有的兄弟 , 有的 。 它就是「NVIDIA Vera Rubin Ultra NVL576」 , 通過引入一種全新的雙層全互連 NVLink 拓撲結構 , 使開發者能夠將系統縱向擴展至最多 576 塊 GPU 。

Vera Rubin Ultra NVL576 將把 8 個獨立的 MGX NVL 機架連接在一起 , 每個機架配備 72 塊 Rubin Ultra GPU 。 所有機架通過銅纜互連和直連光互連共同組成一個統一的 576 GPU NVLink 域 。
該系統將基于同一套 MGX 機架級生態構建而成 , 可以實現最快的量產落地周期 。
為了驗證這一跨機架的大規模 NVLink 拓撲架構 ,英偉達內部構建一套功能完備、基于 GB200 的原型系統 ——Polyphe , 如下圖所示:

當然 , 最新的 Vera Rubin 算力也會部署到太空 。
黃仁勛宣布 , 英偉達正在研發名為 Nvidia Vera Rubin Space-1 的用于軌道數據中心的新型芯片 / 計算機 , 「太空中沒有傳導 , 沒有對流 , 只有輻射 , 我們必須想辦法在太空中冷卻這些系統 , 但我們有很多優秀的工程師正在研究這個問題 。 」

英偉達表示 , 相比上代架構 , Vera Rubin 的落地速度顯著加快 , 目前其已在微軟 Azure 上開始部署 。 隨著 Vera Rubin 的推出 , AI 智能體的轉折點已經到來 , 史上規模最大的 AI 基建即將展開 。
全新 AI 推理芯片 LPU
Vera Rubin 強大的能力 , 離不開 LPU(Language Processing Unit , 語言處理單元) 。
去年 12 月 , 英偉達斥資約 200 億美元與 AI 推理芯片公司 Groq 達成了一項戰略交易 , 獲得了 Groq 推理技術授權 , 收購其部分芯片資產 , 同時吸納核心團隊成員 , 包括創始人 Jonathan Ross、總裁 Sunny Madra 等 。
Groq 的價值在于 , 通過 LPU 專門優化的推理流水線與 GPU 協同計算 , 突破純 GPU AI 服務器在低延遲推理、token 解碼效率和能耗上的瓶頸 。
本次 GTC 大會上 , NVIDIA Groq 3 LPX 的發布標志著加速計算領域迎來了一項重要里程碑 。
大模型推理長期面臨一個核心矛盾:低延遲與高吞吐量往往難以兼得 。 而 Groq LPX 架構與 Vera Rubin GPU 協同工作 , 專門針對智能體系統所需的低延遲與超長上下文推理進行優化 。
在這一架構下 , 每兆瓦推理吞吐量最高可提升 35 倍 , 并為萬億參數模型帶來最高 10 倍的營收潛力 。
更高的每瓦吞吐量和 token 級性能 , 將開啟一個新的推理層級 , 使得萬億參數、百萬上下文的超高端模型推理成為可能 , 并為所有 AI 服務提供商帶來更大的商業空間 。

在設計上 , LPX 機架采用全液冷設計 , 基于 MGX 基礎設施構建 , 可無縫集成到下一代 Vera Rubin AI 工廠中 。
同時 , LPX 機架包含了 256 個 LPU 處理器 , 提供 128GB 片上 SRAM 和 640 TB/s 的縱向互聯帶寬 。
在大規模部署時 , 大量 LPU 可以協同工作 , 像一個巨型單一處理器一樣運行 , 實現高速、確定性的推理加速 。

當與 Vera Rubin NVL72 系統一同部署時 , Rubin GPU 與 LPU 會協同計算 AI 模型每一層的每個輸出 token , 顯著提升解碼性能 。
LPX 架構針對萬億參數模型與百萬 token 上下文進行了優化 , 通過與 Vera Rubin 的協同設計 , 在功耗、內存與計算效率之間實現最佳平衡 。

目前 , LPU 是由三星代工生產 , 未來的新一代可能會由臺積電代工 。 另外在未來的 GPU(Feynman 架構)上 , 也可能整合 Groq 處理器 , 這有望在提升性能的同時降低成本 。
Nvidia Groq 3 LPX 預計將在今年下半年正式推出 。
NemoClaw:英偉達版 OpenClaw 上線
最近科技圈最火的概念是 OpenClaw , 老黃在 GTC 上把它比作「操作系統」 , 簡單來說 , OpenClaw 是一個可以連接到云系統的智能體平臺 。 它可以生成其他智能體、進行調度、分解問題等等 。
然而 , 當前基于 OpenClaw 的 AI 智能體在與外部通信時存在安全隱患 。 而英偉達推出的 NemoClaw 具有企業級安全保障 , 有助于保護敏感信息 。
英偉達通過在 OpenClaw 創始人 Peter Steinberger 構建的基礎架構之上添加多層安全防護 , 成功地將 OpenClaw 定位為企業級安全解決方案 。 老黃稱 , 英偉達召集了「全球頂尖的安全研究人員 , 對 OpenClaw 進行了修改 , 使其能夠安全地部署在企業內部 。 」
他同時強調 , 如今每一家企業都需要制定自己的 OpenClaw 戰略 。 在黃仁勛看來 , OpenClaw 以及更廣義的 Claw 系統 , 未來的重要性將與 Linux、Kubernetes、HTML 等基礎軟件設施相提并論 。

在具體技術層面 , NemoClaw 就是一套讓 OpenClaw 更容易部署、也更安全運行的基礎軟件工具 。 通過 NVIDIA Agent Toolkit , 用戶只需一條命令就能完成 OpenClaw 的安裝和優化 , 同時自動部署 OpenShell 運行時 。
這個運行時提供開源模型支持和隔離的沙箱環境 , 讓 AI 智能體在執行任務、調用工具或訪問外部網絡時 , 依然能夠受到安全、網絡和隱私策略的約束 。

NemoClaw 同時支持多種 coding agent 。 在開放智能體模式下 , 它可以調用運行在用戶本地專用系統上的開源模型 , 包括 NVIDIA Nemotron;同時通過隱私路由(privacy router) , 智能體也可以訪問運行在云端的前沿模型 。
本地模型與云端模型的結合 , 為智能體持續學習與能力擴展提供了基礎 , 使其能夠在既定的隱私與安全規則下完成更復雜的任務 。
黃仁勛還提到 , 與 OpenClaw 搭配部署的最佳模型之一 , 是英偉達最近發布的 Nemotron 3 Super 。 這是一款面向智能體(agentic)場景的開源大語言模型 。

Nemotron 3 Super 專門針對長上下文任務進行了優化 , 同時模型規??刂圃?1200 億參數 。 結合 NemoClaw 提供的安全層以及 Nemotron 3 Super 本身具備的隱私優勢 , 英偉達基本解決了邊緣部署智能體時最關鍵的隱私限制問題 。
除此之外 , NemoClaw 還可以調用英偉達生態中的多種開源工具和框架 , 例如 cuDF、Nemotron Dynamo、cuOPT 等庫 。 這些組件為智能體提供了更多能力 , 使其在處理數據、優化決策和執行復雜任務時更加高效和強大 。
從今天起 , 開發者可以通過以下鏈接訪問英偉達的 Agent Toolkit 和 OpenShell , 也可以將 OpenShell 與 LangChain 結合使用 , 或者直接從 GitHub 下載并在本地運行 。

鏈接地址:https://build.nvidia.com/
企業用戶則可以通過 AWS、Google Cloud、Microsoft Azure 等云服務平臺創建并部署 AI 智能體 。
AI 進入物理世界
數字世界的智能體之外 , AI 也正在物理世界大規模落地 。
英偉達在 GTC 大會上展示了 110 臺機器人 , 比亞迪、現代、日產和吉利成為了英偉達最新合作伙伴 , 這些車企宣布將采用 NVIDIA DRIVE Hyperion 技術打造 L4 級自動駕駛汽車 。

在越來越多的汽車制造商平臺的支持下 , 英偉達和 Uber 計劃在 2028 年在四大洲的 28 個城市推出完全由 NVIDIA DRIVE AV 全棧軟件驅動的自動駕駛車隊 。 預計到 2027 年上半年 , Uber 的自動駕駛將會在洛杉磯和舊金山灣區率先推出 。 這支由 DRIVE Hyperion 提供支持的車隊將利用 NVIDIA Alpamayo 開放模型和 NVIDIA Halos 操作系統 。
在 GTC 大會上 ,英偉達宣布與大量機器人廠商合作 , 共同推動生產規模的物理 AI 發展 。 英偉達發布了全新的 NVIDIA Isaac 仿真框架以及面向業界的全新 Cosmos、Isaac GR00T 開放模型 , 用于開發、訓練和部署下一代智能機器人 。
開放式物理 AI 數據工廠 Blueprint 則旨在對視覺 AI 智能體、機器人和自動駕駛車輛的物理 AI 模型進行大規模數據處理和管理、合成數據生成、強化學習和評估 。
Keynote 最后上場的角色 , 是在虛擬世界中訓練 , 獲得物理軀體的「雪寶」機器人 , 它是完全由英偉達物理 AI 全家桶構建出來的 。 或許不久之后我們會在迪士尼樂園里看到他 。

AI 的下半場才剛剛開始 , 你準備好上車了嗎?
參考鏈接:
https://www.youtube.com/watch?v=jw_o0xr8MWU
https://nvidianews.nvidia.com/news/nvidia-vera-rubin-platform?ncid=no-ncid

    推薦閱讀