GPU成本高企、顯存墻難破,國產存儲如何推動AI普惠化進程?

GPU成本高企、顯存墻難破,國產存儲如何推動AI普惠化進程?

文章圖片

GPU成本高企、顯存墻難破,國產存儲如何推動AI普惠化進程?

文章圖片

GPU成本高企、顯存墻難破,國產存儲如何推動AI普惠化進程?
當前 , AI應用市場的爆發式增長正在催生對高性能存儲的巨大需求 , 但高昂的GPU采購成本和難以逾越的“顯存墻” , 卻使許多渴望創新的企業望而卻步 。 面對這種結構性挑戰與增長機遇并存的產業現狀 , 國產存儲新勢力如何憑借新的系統級思維破局?
為了探尋“從存儲入手實現AI項目降本增效”的創新路徑 , 我們與銓興科技eSSD產品線副總經理邱創隆和AI產品總監王瑜琨進行了深度對話 , 共同解碼AI時代下存儲的系統級創新與成本致勝的底層邏輯 。
重塑價值:
存儲成為TCO和效率的核心驅動力
在AI的浪潮下 , 存儲的價值被徹底顛覆 。 銓興科技eSSD產品線副總經理邱創隆指出 , 過去存儲像是一個IT系統里的“倉庫” , 是配角 。 然而 , 隨著AI訓練和推理負載的加重 , 存儲不再僅僅是數據容器 , 它已成為提升AI系統效率、降低總體擁有成本(TCO)的關鍵戰略環節 。
△銓興科技eSSD產品線副總經理邱創隆
邱創隆進一步闡明 , AI時代存儲模組廠商主要扮演著“承上啟下”的關鍵作用 。 這要求企業必須洞察AI數據流五個階段(數據讀取、數據準備、模型訓練、模型推理、數據歸檔)的差異化需求 , 將主控和閃存芯片進行深度調優和驗證 , 確保企業提供給客戶的是符合未來應用趨勢的解決方案 。
AI工作流正在驅動存儲產品走向進一步分化 。 邱創隆表示 , 單一的存儲方案已無法實現最優的成本效益 , 因此銓興科技提供了層次清晰、精準匹配應用場景的eSSD產品矩陣 , 為不同需求的企業提供“速度階梯” 。
在AI推理(Inference)和檢索增強生成(RAG)的應用階段 , 負載特性顯著轉向“讀取密集型” , 對容量和總體擁有成本(TCO)的要求達到極致 。 為此 , 銓興科技推出了高密度的 PCIe 5.0 QLC eSSD系列 , 其容量高達122.88TB , 并具備14000MB/s 的頂級順序讀取速度 。 這款百TB級容量產品 , 相較傳統硬盤能帶來6倍的容量提升 , 不僅能顯著節省機柜空間和電力消耗 , 更從根本上優化了AI應用長期運行的TCO 。
【GPU成本高企、顯存墻難破,國產存儲如何推動AI普惠化進程?】

而針對AI訓練和HPC負載要求嚴苛的“混合讀寫”性能和高可靠性需求 , 銓興則提供了旗艦級的 PCIe 5.0 TLC eSSD系列 。 該系列具備超14GB/s的連續讀速和高達3300K的隨機IOPS , 提供極致的性能保障 。 同時 , 該產品還創新性地配備了Dual Port(雙端口)設計 , 能為長時間、不間斷的AI訓練任務提供企業級的可靠性與高可用性保障 。
系統革命:
“以存強算” , 突破GPU顯存墻
盡管通過eSSD產品矩陣解決了AI數據流在容量和速度上的分化需求 , 但對于大模型部署而言 , 顯存墻仍是AI普惠化最難逾越的障礙 。
銓興科技AI產品總監王瑜琨指出 , AI模型參數的增長速度已遠遠甩開頂級顯卡顯存的線性擴容 , 形成了難以跨越的結構性鴻溝 。 他援引數據強調:過去幾年模型規模暴漲了約10倍 , 而顯存容量僅微增2到3倍 。 鑒于模型規模在未來只會繼續指數級攀升 , 對顯存的爆炸式需求 , 使得傳統“算力派”直觀堆疊天價顯卡的策略 , 不僅帶來了巨額的硬件采購成本 , 也注定無法長久支持行業未來AI普惠化的目標 。
△銓興科技AI產品總監王瑜琨
因此 , 銓興科技則選擇了更具戰略價值的“系統派的折疊梯”戰略 , 推出了“添翼AI 超顯存融合解決方案” 。 王瑜琨進一步表明 , 該方案的核心在于“以存強算”的軟硬一體架構 , 這一架構由兩大部分緊密耦合而成 。

硬件基礎是一塊專為AI負載設計的“添翼AI擴容卡” 。 它本質上是給GPU加裝了一個超高速、高壽命的“外掛”緩存 , 將單卡的等效顯存容量有效擴展了 20倍 , 從而解決了傳統閃存的壽命瓶頸 。
軟件核心則是“AI Link算法平臺” 。 該平臺通過高度并行化的冷熱存儲智能調度 , 能夠自主判斷下一步運算所需數據 , 提前將存儲在擴容卡中的“冷數據”高效搬運到GPU的“熱環境”中 , 最終突破了帶寬墻的限制。
這種系統級的架構重構帶來了驚人的效益 。 王瑜琨透露 , 以訓練 671B參數大模型為例 , 原先需要 168張頂級顯卡(部署成本大于4200萬元)的任務 , 如今僅需16張中階顯卡+ 8張添翼擴容卡(造價不到200萬元)即可勝任 。 這使得企業的訓練成本可銳減約95% , 同時模型推理的并發性能還能獲得高達50% 的提升 , 實現了成本與效率的雙重突破 。
王瑜琨明確指出 , 面對顯存的結構性挑戰 , 行業必須采納更為高效的折中方案 。 他強調 , 將更大規模的模型參數遷移至Flash閃存上 , 是推動AI普惠化進程、實現成本效益的未來必然趨勢 。
國產AI的底氣:
從顯存突破到全體系兼容性
為了將技術轉化為生產力 , 銓興推出了覆蓋全場景的“Super AI”訓推一體機系列(涵蓋PC、工作站和服務器) , 旨在將AI普惠化下沉到中小企業、研究機構乃至個人 。 憑借顯著的成本優勢 , “添翼AI”解決方案已經在高校教學、政務、法律等垂直行業實現了成功落地 。
與此同時 , 銓興始終將多平臺兼容性作為產品的基礎 。 其eSSD產品矩陣的廣泛適用性已通過了包括飛騰(Phytium)、龍芯(Loongson)、海光(Hygon)、兆芯在內的多家國產CPU平臺和聯想、新華三、寧暢、超云、長城、金舟遠航等服務器平臺的驗證 , 以及中泰證券、北京郵電大學等行業客戶的嚴格驗證 。 這確保了無論是基礎存儲還是AI加速方案 , 都能在主流計算環境中穩定運行 , 為“Super AI”系列方案的推廣奠定了堅實的基礎 。
對于行業未來 , 銓興科技采取了eSSD產品矩陣持續升級和存算深度耦合技術集成兩條清晰的迭代路線 。
邱創隆副總經理披露了銓興科技在存儲產品升級方面的路線圖 。 他預計 , 存儲產業明年 PCIe 5.0 將取代4.0成為市場主流 。 在此背景下 , 銓興科技計劃在明年下半年推出下一代速度更快的 PCIe 6.0接口產品 , 以持續鞏固其在高性能存儲市場的地位 。
針對AI存算融合的長期趨勢 , 王瑜琨認為 , “以存強算”將毫無疑問成為AI行業的主流 , 并與算力實現更深層次的集成 。 他指出 , 從技術前景看 , 未來隨著PCIe 7.0等技術的逐步落地 , 閃存的帶寬將更加接近DDR5 , 而容量卻能達到數十倍 , 這將從根本上為AI普惠化奠定技術基礎 。
基于此 , 銓興科技制定了清晰的長期目標:到2026年 , 實現將200B規模的模型部署到一臺PC中 , 達成萬元以下的千億模型部署;到2027年 , 則計劃將萬億級別的參數搬到個人PC中 , 最終推動AI的廣泛普惠 。
結 語
隨著AI浪潮深入產業腹地 , 基礎設施的成本與效率已成為決定其應用廣度的勝負手 。 銓興科技憑借eSSD產品矩陣的持續升級和“添翼AI超顯存融合解決方案”的系統級創新 , 成功打通了“算力”與“存儲”之間的結構性瓶點 。 這不僅為AI大模型部署提供了一條成本銳減90%的新路徑 , 更將萬億參數模型由云端拉向了終端 , 極大地拓寬了AI技術的應用范圍 。
放眼業界 , 在AI普惠化的時代背景下 , “以存強算”和“軟硬協同”已成為全球存儲廠商共同發力的創新賽道 。 各方正積極探索創新介質和深度算法 , 致力于突破顯存價格的高墻 , 推動AI應用真正普及 。

    推薦閱讀