OpenAI突然開源新模型!99.9%的權重是0,新稀疏性方法代替MoE

OpenAI突然開源新模型!99.9%的權重是0,新稀疏性方法代替MoE

文章圖片

OpenAI突然開源新模型!99.9%的權重是0,新稀疏性方法代替MoE

文章圖片

OpenAI突然開源新模型!99.9%的權重是0,新稀疏性方法代替MoE

文章圖片

OpenAI突然開源新模型!99.9%的權重是0,新稀疏性方法代替MoE

聞樂 發自 凹非寺
量子位 | 公眾號 QbitAI
破解AI胡說八道的關鍵 , 居然是給大模型砍斷99.9%的連接線?
OpenAI悄悄開源新模型 , 僅有0.4B參數 , 且99.9%的權重為零 。

也就是Circuit Sparsity技術的開源實現 。

這是一種通過人為約束模型內部連接的稀疏性 , 讓模型計算過程可拆解、可理解的大語言模型變體 , 本質上是為了解決傳統稠密Transformer的黑箱問題 , 讓內部的計算電路能被人類清晰解讀 , 知道AI是如何做決策的 , 避免輕易相信AI的胡話(doge) 。

更有人直言這種「極致稀疏+功能解耦」的思路可能會讓當下熱門的MoE(混合專家模型)走上末路 。

那么 , 當Transformer的權重被訓練到近乎全0 , 會發生什么呢?
放棄粗糙近似 , 追求原生稀疏先說說為啥這個模型的思考過程能像電路圖一樣好懂 。
咱們平時用的傳統大模型 , 內部神經元連接得密密麻麻 , 權重矩陣幾乎全為非零值 , 信息傳遞呈現出高度疊加狀態 , 就像一團扯不開的亂線 , 沒人能說清它是怎么得出某個結論的 。
而Circuit Sparsity模型反其道而行之 , 基于GPT-2風格的Transformer架構訓練時 , 通過嚴格約束讓權重的L0范數極小 , 直接把99.9%的無效連接砍斷 , 只留下千分之一的有效通路 。

這些留存的非零權重連接就像電路圖里的導線 , 信息只能沿著固定路徑傳遞;同時 , 模型還會通過均值屏蔽剪枝方法 , 為每個任務拆出專屬的最小電路 。
比如處理Python引號閉合任務時 , 僅需2個MLP神經元和1個注意力頭就能構成核心電路 , 包含專門的引號檢測器、類型分類器等功能模塊 , 就像電路圖里的電阻、電容 , 各自管各自的事 。

實驗數據顯示 , 在預訓練損失相同的前提下 , 稀疏模型的任務專屬電路規模比稠密模型小16倍 , 且具備嚴格的必要性與充分性——保留這些模塊就能完成任務 , 刪掉任一節點則直接失效 。
這樣 , 每一步的邏輯都能精準追蹤 。
那這時候就不得不提當下主流的MoE模型了 。
MoE的核心思路是通過門控網絡將模型拆分為多個專家子網絡 , 每個專家負責處理一部分任務 , 靠路由器分配任務來提升效率 , 本質上是用拆分專家這種粗糙的方式近似稀疏性 , 目的只是為了適配硬件的稠密矩陣計算需求 。
但這種架構存在致命缺陷:
一是會割裂模型的特征流形 , 導致專家同質化嚴重、知識冗余等問題 , 不同專家間的信息協同依賴復雜的負載均衡損失函數調控 , 穩定性堪憂; 二是專家功能邊界模糊 , 無法像Circuit Sparsity模型那樣實現微觀機制的精準拆解 。反觀Circuit Sparsity , 追求的是模型原生的稀疏性 , 通過把特征投射到超大維度 , 再嚴格限制有效激活的節點數量 , 從設計上就讓每個特征變得單義、正交 , 從根源上解決了傳統模型一個概念分散在多個節點的疊加問題 , 不用靠路由器這種hack手段也能避免信息干擾 。

不過Circuit Sparsity目前也有明顯的短板 , 最突出的就是算力成本極高 。
訓練和推理的計算量是傳統稠密模型的100-1000倍 , 暫時還達不到頂尖大模型的能力;
而MoE模型在算力效率和性能平衡上已經很成熟 , 短期內依然會是工業界的主流選擇 。
并且 , 這項工作也只是AI可解釋性探索的早期一步 , 未來團隊計劃將技術擴展到更大的模型 , 解鎖更復雜的推理電路 。
目前 , 團隊發現有兩種克服稀疏模型訓練效率低下的方法:
一個是直接從現有的密集模型中提取稀疏電路 , 這樣直接復用基礎框架 , 不額外訓練稀疏模型 , 能大幅降低成本; 另一種途徑則是不放棄從頭訓練可解釋稀疏模型的這種思路 , 但針對訓練慢、成本高的短板 , 從技術層面優化訓練機制 , 造出原生可解釋、且能高效落地的模型 。那么就期待研究人員后續用更成熟的工具或技術 , 逐步揭開大模型的黑箱面紗了 。
參考鏈接:[1
https://openai.com/zh-Hans-CN/index/understanding-neural-networks-through-sparse-circuits/[2
https://x.com/byebyescaling/status/1999672833778287033?s=20
— 完 —
量子位 QbitAI · 頭條號簽約
【OpenAI突然開源新模型!99.9%的權重是0,新稀疏性方法代替MoE】關注我們 , 第一時間獲知前沿科技動態

    推薦閱讀