浙大造全球最大類腦計算機,擁有20億個神經元,接近獼猴大腦規模

浙大造全球最大類腦計算機,擁有20億個神經元,接近獼猴大腦規模

文章圖片


henry 發自 凹非寺
量子位 | 公眾號 QbitAI
全球最大規模類腦計算機 , 浙大造!
浙江大學腦機智能全國重點實驗室發布了全球規模最大的類腦計算機——“Darwin Monkey(悟空)” 。
這臺計算機采用第三代類腦芯片Darwin 3構建(該芯片由浙江大學聯合之江實驗室于2023年研制成功) , 擁有超過20億個脈沖神經元與1000億突觸連接 , 首次在工程系統中逼近獼猴大腦的神經元規模 , 并將系統消耗降低至2000瓦 , 是國際上首臺突破20億神經元的神經擬態類腦計算機 。
據實驗室負責人潘綱教授介紹 , 團隊已在該計算機上成功部署了多個智能應用 , 它不僅可以運行DeepSeek等類腦大模型 , 還可以模擬不同神經元規模的動物大腦 。
可以說 , 這一發明不僅在工程層面為人工智能的發展奠定了基礎 , 還將在神經科學領域為建模大腦提供新的可能性 。
全球最大的類腦計算機被譽為現代神經科學之父的圣地亞哥·拉蒙·卡哈爾 , 曾劃時代地指出“神經元是大腦的獨立功能單元” 。 這一觀點不僅奠定了神經元學說的基礎 , 也為后來的類腦計算架構提供了理論支持 。
在人腦中 , 數百億個(約860億)神經元協同傳遞信號 , 構筑起了遠超當前人工智能系統的生物智能架構 。
為此 , 神經擬態類腦計算試圖通過人工神經元和突觸 , 模擬大腦的計算機制 , 讓智能系統模仿人類決策、學習和記憶等功能 , 從而實現更高效的信息處理 。
“悟空”計算機就由此而來 。
達爾文3代芯片悟空計算機配備了960顆實驗室自研的達爾文3代(Darwin3)類腦計算芯片 , 其支持的脈沖神經元規模超過20億(人腦約有860億) , 可產生超過1000億個突觸 。
達爾文3代芯片通過片上神經元和突觸電路來模擬生物神經元的行為 , 信息以“軸突”線上的離散脈沖(類似于生物神經元的動作電位)的形式傳遞 , 這種設計使得芯片能夠高效地處理時空信息 。
每顆達爾文3代芯片支持超過235萬個脈沖神經元和數億個突觸 , 并支持受大腦啟發的專用計算指令集和神經擬態在線學習機制 , 這使其成為目前構建的最大規模的神經擬態類腦芯片之一 。

(注:相較于傳統的人工神經網絡 , 脈沖神經網絡(Spiking neural networks , SNN)使用離散的脈沖或信號而不是連續的值來表示和傳輸數據 , 從而更緊密地模擬生物神經元的功能)
作為浙江大學與之江實驗室聯合研制的第三代大規模神經擬態芯片 , 其主要特點包括:
大規模神經元系統互連與集成架構
Darwin3是目前神經元規模最大的數字式神經擬態芯片之一 , 單芯片支持高達235萬個脈沖神經元 。
它采用了24×24的二維計算節點網格架構 , 每個節點可以支持多達4096個脈沖神經元 。 這種架構不僅支持大規模神經元的集成 , 還通過片上網絡(NoC)實現了高效的節點間通信 。
同時 , Darwin3的設計允許通過片間通信模塊在四個方向上擴展連接 , 支持構建更大規模的神經網絡 。 這種擴展性使得多個Darwin3芯片可以集成到一個系統中 , 進一步提升系統的計算能力 。
專用領域指令集(ISA)
Darwin3的ISA包括10條主指令 , 涵蓋載入/存儲操作、狀態變量更新、生成脈沖等基本操作 , 以及一些擴展的算術和邏輯指令 。 這些指令能夠高效表達多種脈沖神經元模型(如LIF、Izhikevich等)和學習規則(如STDP及其變體) 。
通過將常見操作合并到單條指令中 , Darwin3的ISA不僅減少了指令存儲需求 , 還顯著降低了指令解碼時間 , 提高了計算效率 。
連接拓撲高效壓縮
Darwin3采用了一種創新的連接表示機制 , 能夠對常見卷積、全連接、群組等多種網絡結構進行靈活壓縮 。 這種機制通過優化連接信息的存儲方式 , 顯著減少了存儲開銷 。
此外 , 與傳統設計相比 , Darwin3的最大扇入(Fan-in)和扇出(Fan-out)能力分別提升了1024倍和2048倍 。 這種能力的提升使得芯片能夠支持更復雜的網絡拓撲 , 同時減少了對物理存儲的需求 。
事件驅動、低功耗
Darwin3采用事件驅動(Event-Driven)架構 , 只有在脈沖到來或需要進行計算時才會激活相關模塊 。 這種設計顯著降低了芯片的功耗 。
在測試中 , Darwin3的每次突觸操作(SOP)能耗低至5.47皮焦耳 , 極大地提升了能效比 。 這種低功耗特性使得Darwin3非常適合在低功耗場景下運行大規模神經網絡 。
片上學習能力
Darwin3不僅支持多種本地可編程學習規則(如STDP、獎懲調制規則等) , 還將學習狀態變量與突觸權重常駐芯片內部存儲 。
這種設計使得芯片能夠實現在線自適應更新 , 支持復雜的神經網絡訓練 。
類腦計算機與系統在單顆芯片的基礎上 , 每64顆達爾文三代芯片組成了一臺刀片式神經擬態服務器 , 15臺這樣的服務器才又組成了一臺“悟空”類腦計算機 。

為了進一步提升集成密度與通信效率 , 研究團隊引入了2.5D先進封裝技術 , 開發了名為DarwinWafer的晶上系統”(System on Wafer SoW) 。
該系統將64顆達爾文三代芯片直接封裝在一整塊12英寸晶圓上 , 擺脫了傳統封裝和光罩走線在物理連接中的限制 , 使所有芯片之間的互連都在微納米尺度內完成 , 使互聯速度更快、功耗更低 。
目前 , 在悟空類腦計算機上 , 團隊已成功部署包括DeepSeek在內的智能應用 , 并完成了邏輯推理、內容生成和數學求解的任務 。
同時 , 還憑借類腦計算機強大的神經元和突觸配置 , 模擬了包括秀麗線蟲、斑馬魚、小鼠以及獼猴等在內的不同神經元規模的動物大腦 , 為腦科學研究提供了新的手段 。
【浙大造全球最大類腦計算機,擁有20億個神經元,接近獼猴大腦規?!?/strong>此外 , 為了進一步釋放類腦計算的系統潛力 , 研究團隊還同步開發了一套全新的達爾文類腦操作系統 。
該系統采用分層資源管理架構 , 結合任務負載感知調度與動態時間片分配機制 , 在兼顧通信帶寬與任務特征的前提下 , 實現了神經擬態任務的高效并行執行與系統資源的智能調優 。
悟空類腦系統所依賴的Darwin3芯片由浙江大學與浙江省實驗室合作于2023年研發 。 該實驗室由浙江大學、浙江省政府和阿里巴巴集團共同出資 。
在2020年 , 團隊發布還發布了受大腦啟發的計算機“Darwin Mouse”(米奇) , 該計算機擁有1.2億個人工神經元 。
此前 , 國際上規模最大的神經擬態類腦計算機是Intel在2024年4月發布的Hala Point系統 , 其神經元規模為11.5億 。
對于悟空計算機在當下計算場景中的應用 , 潘綱教授表示:
一方面 , 它可以作為人工智能(AI)發展的全新計算基礎 , 為神經科學家提供大腦模擬工具 , 并為探索大腦工作機制提供新的實驗方法 , 使科學家能夠更好地理解大腦 , 減少對生物實驗的需求 。
另一方面 , “悟空”計算機在模擬人類大腦工作機制的基礎上 , 將超越人腦的計算速度 , 并為未來類腦人工智能的研究提供強有力的支持 。
參考鏈接:[1
https://www.zju.edu.cn/2025/0802/c76699a3072814/page.htm[2
https://interestingengineering.com/science/china-world-largest-scale-brain-computer[3
https://www.globaltimes.cn/page/202508/1339961.shtml[4
https://www.scmp.com/tech/tech-trends/article/3319878/waic-shanghai-china-reveals-new-great-leap-forward-1509-ai-models?module=perpetual_scroll_1_RMpgtype=article[5
https://pubmed.ncbi.nlm.nih.gov/38689713/
— 完 —
量子位 QbitAI · 頭條號簽約
關注我們 , 第一時間獲知前沿科技動態

    推薦閱讀