美國AI巨頭紛紛閉源,英偉達為何反其道而行?

美國AI巨頭紛紛閉源,英偉達為何反其道而行?

文章圖片


當其他巨頭忙著把大門關上的時候 , 英偉達卻在忙著把更多人請進自己的院子——當然 , 前提是他們得用英偉達的磚頭蓋房子 。

本周一 , 英偉達宣布收購開源調度軟件公司 SchedMD , 并同時發布了名為 Nemotron 3 的開源大語言模型系列 。 這家全球最大的 GPU 制造商宣稱 , 這是迄今為止“最高效的開源模型家族” 。

本次發布的 Nemotron 3 模型家族包含三個規格:Nano(300 億參數)、Super(1000 億參數)和 Ultra(5000 億參數) 。 采用混合專家模型(Mixture of Experts , 簡稱 MoE)架構 。

按英偉達的說法 , Nano 的吞吐量是前代 Nemotron 2 的四倍 , 推理時的 token 生成量最多可減少 60% 。 此外 , Nano 的上下文窗口擴展到了 100 萬 token , 是前代的七倍 。 不過 , 需要注意的是 , 目前只有 Nano 立即可用 , Super 和 Ultra 要到 2026 年上半年才會正式發布 。

此次發布的開放程度較高 。 英偉達公開了模型權重、將近 10 萬億 token 的合成預訓練語料以及詳細的訓練配方 , 采用 NVIDIA Open Model License 許可協議 , 模型可商用、允許創建并分發衍生模型 , 英偉達不主張對模型輸出的所有權 。 開發者可以在 GitHub 和 Hugging Face 上獲取這些資源 , 并使用 NeMo Gym、NeMo RL 等配套工具庫進行強化學習訓練和安全評估 。

收購 SchedMD 則是對英偉達軟件布局的補強 。 SchedMD 是 Slurm 的主要開發者 , 后者是一套廣泛應用于高性能計算(High-Performance Computing , HPC)和 AI 訓練集群的開源工作負載調度系統 , 全球 TOP500 超級計算機中超過一半在使用它 。

英偉達與 SchedMD 的合作已經持續了十多年 , 此次收購后 , 公司承諾將繼續以開源、廠商中立的方式運營 Slurm 。 這筆交易的具體金額未披露 , 但 SchedMD 的 CEO Danny Auble 在聲明中表示 , 此次收購“是對 Slurm 在最嚴苛的 HPC 和 AI 環境中扮演關鍵角色的終極認可” 。


圖丨Danny Auble(來源:SchedMD)

就在英偉達持續擴大開源力度的同時 , 其他美國 AI 巨頭在開源領域卻集體后撤 。

【美國AI巨頭紛紛閉源,英偉達為何反其道而行?】就在上周 , 彭博社和多家媒體報道稱 , Meta 正在開發一款代號為“Avocado”的新模型 , 預計將于 2026 年春季發布 , 而這款模型很可能不再開源 。 這對一家曾大張旗鼓宣揚“開源是 AI 正道”的公司來說 , 無異于一次立場倒戈 。 扎克伯格去年還在公開信中信誓旦旦地寫道 , “開源 AI 是前進的道路” , 并高調批評 OpenAI 變得越來越封閉 。

但今年 Llama 4 的旗艦版本 Behemoth 在基準測試中表現不佳后 , Meta 的超級智能實驗室(Meta Superintelligence Labs)內部開始討論轉向閉源路線 , 其新任的首席 AI 官 Alexandr Wang 也是閉源模型的倡導者 。

OpenAI 的開源節奏同樣緩慢 。 今年 8 月 , 該公司發布了 GPT-oss 系列開源模型 , 包括 117 億參數的 gpt-oss-120b 和 21 億參數的 gpt-oss-20b , 采用 Apache 2.0 許可 。 但這距離其上一次開源發布(GPT-2)已過去五年 。 而在如今 OpenAI 面臨來自谷歌的巨大競爭壓力下 , 顯然并不太可能在開源方面投入過多 。

與此同時 , 大洋彼岸的中國開源力量正以驚人的速度崛起 。 根據 OpenRouter 和風險投資機構 a16z 聯合發布的一份報告 , 中國開源大語言模型的全球使用份額已從 2024 年底的 1.2%飆升至近 30% 。 DeepSeek-V3、阿里巴巴旗下的 Qwen 系列以及 Moonshot AI 的 Kimi K2 成為這波增長的主要推動力 。


圖丨按模型類型劃分的每周 token 使用量 (來源:OpenRouter)

更讓美國同行不安的是 , 中國公司在開源這條路上走得極為堅定 。 阿里云不斷迭代 Qwen 系列 , DeepSeek 頻繁更新模型版本 , 形成了一套密集的發布節奏 。 反觀美國巨頭 , 除了英偉達 , 幾乎都在向閉源收縮 。

黃仁勛對此并不諱言 。 他在今年 10 月于華盛頓舉辦的 GTC 大會上稱 , 中國在開源領域“遙遙領先” , 如果美國公司全面撤退 , 可能會對中國軟件“滲透世界”的那一天“毫無準備” 。

那么 , 作為一家硬件公司 , 英偉達為何要在這種趨勢下逆勢加碼開源?答案仍然要回到它最核心的生意:賣芯片 。

英偉達的核心護城河不僅是 GPU 硬件 , 更是圍繞 GPU 構建的軟件生態 , 尤其是 CUDA 。 CUDA 是一套專為英偉達硬件設計的并行計算平臺和編程接口 , 自 2006 年推出以來 , 已成為 AI、機器學習和高性能計算領域事實上的行業標準 。 全球超過 400 萬注冊開發者在 CUDA 上編寫代碼 , TensorFlow、PyTorch 等主流深度學習框架都對其有深度依賴 。

英偉達很早就意識到 , 開源軟件是鞏固這套生態鎖定的絕佳手段 。 雖然 CUDA 本身是閉源的(這也一直受到競爭對手的詬?。 ?, 但英偉達多年來持續向開源社區投入資源:參與 Linux 內核、PyTorch、TensorFlow、Kubernetes 等項目的開發 , 發布 CV-CUDA、TensorRT 等開源組件 , 并在 2022 年將 Linux GPU 內核模塊以 GPL 和 MIT 雙許可的形式開源 。 這些舉措的核心邏輯非常清晰 , 讓開發者在開源世界里自由探索 , 但最終 , 他們構建的工具和應用仍然需要(或最適合)跑在英偉達的硬件上 。

Nemotron 3 的推出是這套戰略的延伸 。 英偉達生成式 AI 軟件業務副總裁 Kari Briski 在發布會前的媒體吹風會上說得相當直白:“當我們是最好的開發平臺時 , 人們自然會選擇我們 , 選擇我們的平臺 , 選擇我們的 GPU , 不僅為了今天的項目 , 也為了明天的產品 。 ”

開發者用 Nemotron 搭建 AI 應用、訓練智能體 , 這些工作流最終都會沉淀在英偉達的硬件生態里 。 當他們習慣了 NeMo、Triton 這些工具 , 當他們的代碼深度綁定在 CUDA 上 , 切換到 AMD 或其他平臺的成本就會變得越來越高 。

從這個角度看 , 英偉達做開源模型 , 并不是要跟 OpenAI 或 Anthropic 搶 LLM 的生意 , 這些公司的模型主要通過 API 付費使用 , 而英偉達的商業模式是賣芯片 。 它真正對標的 , 是那些可能讓開發者“脫離英偉達軌道”的替代方案:無論是中國的開源模型生態 , 還是 AMD 的 ROCm、英特爾的 oneAPI , 抑或是那些試圖在非英偉達硬件上訓練和部署 AI 的努力 。

此外 , 英偉達此舉還精準瞄準了一個特殊的客戶群體——那些對數據安全和模型透明度有極高要求的企業與機構 。

Kari Briski 表示:“我們的很多企業客戶無法部署某些模型 , 也無法在源代碼不透明的模型上構建業務 。 ”她強調 , 英偉達希望提供一個可靠且持續更新的開源模型路線圖 , 因為“如果只發布過一個模型且沒有后續計劃 , 開發者是不敢真正依賴的” 。

這番話的潛臺詞就在于:英偉達瞄準的是那些對模型透明度和可審計性有剛性需求的客戶群體 , 如醫療、金融、國防等受監管行業 , 以及全球各國尋求“主權 AI”能力的政府機構 。

Nemotron 支持英偉達更廣泛的主權 AI 戰略 , 從韓國到印度再到中東 , 越來越多的國家希望在本土部署可以審計、符合本地法規和價值觀的 AI 系統 。 閉源模型無法滿足這些需求 , 而來自中國公司的開源模型又可能引發這些國家的地緣政治顧慮 , 這恰好給英偉達留下了巨大的市場空間 。

這種填補真空的策略 , 所代表的正是英偉達在產業鏈縱向整合上的野心 。 與試圖靠模型 API 盈利的軟件巨頭不同 , 黃仁勛并不在意把模型本身賣個好價錢 , 他在意的是這些模型究竟跑在哪里 。

通過 Nemotron 3 , 英偉達實際上是在用開源代碼構建一種比 CUDA 更上層的黏性:當全球的開發者、銀行乃至政府機構都習慣了基于這套方案構建業務時 , 他們也就把自己鎖死在了英偉達的硬件戰車上 。 也就是說 , 開源對英偉達來說 , 只是手段而非目的 。

參考資料:
1.https://nvidianews.nvidia.com/news/nvidia-debuts-nemotron-3-family-of-open-models
2.https://www.wired.com/story/nvidia-becomes-major-model-maker-nemotron-3/
3.https://gizmodo.com/nvidia-wants-to-be-your-open-source-model-provider-2000699568

運營/排版:何晨龍

    推薦閱讀