腦啟發算法可大幅降低AI能耗

腦啟發算法可大幅降低AI能耗

人工智能面臨的一個重大問題是計算機內存與處理能力之間的交互 。 當算法運行時 , 數據在這兩個組件之間快速流動 。 然而 , AI模型依賴大量數據 , 這會產生瓶頸 。
普渡大學和佐治亞理工學院周一在《科學前沿》期刊發表的一項新研究 , 提出了一種使用腦啟發算法構建AI模型計算機架構的新方法 。 研究人員表示 , 以這種方式創建算法可以降低AI模型相關的能耗 。
\"語言處理模型在過去四年中規模增長了5000倍 , \"普渡大學計算機工程教授、該研究的主要作者Kaushik Roy在聲明中說 。 \"這種驚人的快速擴張使得AI盡可能高效變得至關重要 。 這意味著從根本上重新思考計算機的設計方式 。 \"
當今大多數計算機都基于1945年的一個理念——馮·諾伊曼架構 , 該架構將處理和內存分離 。 這就是速度放緩發生的地方 。 隨著全球越來越多的人使用數據密集型AI模型 , 計算機處理和內存容量之間的區別可能會成為一個更嚴重的問題 。
IBM的研究人員在今年早些時候的一篇文章中指出了這個問題 。 計算機工程師遇到的問題被稱為\"內存墻\" 。
突破內存墻
內存墻指的是內存和處理能力之間的差距 。 本質上 , 計算機內存在跟上處理速度方面存在困難 。 這并不是一個新問題 。 弗吉尼亞大學的兩名研究人員早在1990年代就創造了這個術語 。
但現在AI已經普及 , 內存墻問題正在消耗使AI模型工作的底層計算機的時間和能量 。 論文的研究人員認為 , 我們可以嘗試一種整合內存和處理的新計算機架構 。
受我們大腦功能啟發 , 論文中提到的AI算法被稱為脈沖神經網絡 。 過去對這些算法的常見批評是它們可能緩慢且不準確 。 然而 , 一些計算機科學家認為 , 這些算法在過去幾年中已經顯示出顯著改進 。
研究人員建議AI模型應該利用與脈沖神經網絡相關的一個概念 , 即內存計算 。 這個概念在AI領域仍然相對較新 。
\"內存計算通過將計算能力直接整合到內存系統中 , 為內存墻問題提供了一個有希望的解決方案 , \"作者在論文摘要中寫道 。
醫療設備、交通和無人機是研究人員認為如果計算機處理和內存整合到單一系統中可以得到改進的幾個領域 。
\"AI是21世紀最具變革性的技術之一 。 然而 , 要將其從數據中心轉移到現實世界 , 我們需要大幅降低其能源使用 , \"普渡大學合著者和研究員Tanvi Sharma在聲明中說 。
\"通過減少數據傳輸和更高效的處理 , AI可以適配到小型、經濟實惠且電池續航更長的設備中 , \"Sharma說 。
Q&A
Q1:什么是內存墻問題?
A:內存墻指的是內存和處理能力之間的差距 。 本質上 , 計算機內存在跟上處理速度方面存在困難 。 這個概念由弗吉尼亞大學的研究人員在1990年代提出 , 現在隨著AI的普及 , 這個問題正在消耗使AI模型工作的底層計算機的時間和能量 。
【腦啟發算法可大幅降低AI能耗】Q2:脈沖神經網絡有什么特點?
A:脈沖神經網絡是受大腦功能啟發的AI算法 。 過去這些算法的常見問題是可能緩慢且不準確 , 但一些計算機科學家認為 , 這些算法在過去幾年中已經顯示出顯著改進 , 可以作為解決內存墻問題的有效途徑 。
Q3:內存計算如何幫助降低AI能耗?
A:內存計算通過將計算能力直接整合到內存系統中 , 減少了數據在處理和內存之間的傳輸 , 從而提高效率 。 這種方法可以讓AI適配到小型、經濟實惠且電池續航更長的設備中 , 大幅降低AI模型的能源使用 。


    推薦閱讀