英偉達叫停SOCAMM1,換道SOCAMM2

英偉達叫停SOCAMM1,換道SOCAMM2

【英偉達叫停SOCAMM1,換道SOCAMM2】本文由半導體產業縱橫(ID:ICVIEWS)編譯自tomshardware
修訂后的規格目前正由美光公司、三星和SK海力士進行采樣 。
近日 , 業內人士消息稱 , 英偉達已取消其第一代 SOCAMM(系統級芯片附加內存模塊)的發布 , 轉而將開發重點放在名為 SOCAMM2 的新版本上 。 這一消息在半導體行業引發廣泛關注 , 若屬實 , 不僅意味著英偉達在內存技術路線上的重大調整 , 更可能對全球 AI 服務器內存市場的格局產生深遠影響 。
SOCAMM 作為英偉達針對 AI 服務器打造的新型內存解決方案 , 自概念提出以來就被寄予厚望 。 在 AI 大模型訓練與推理過程中 , 數據吞吐量成為制約性能的關鍵瓶頸 , 而傳統內存方案在帶寬、功耗與成本之間難以找到平衡 。 HBM(高帶寬內存)憑借堆疊技術實現了極高的帶寬 , 成為當前高端 AI 芯片的首選 , 但復雜的制造工藝使其成本居高不下 , 且產能長期受限 。 SOCAMM 正是在這一背景下應運而生 , 它基于成熟的 LPDDR 架構進行模塊化設計 , 既能提供接近 HBM 的帶寬表現 , 又能通過簡化生產流程降低成本 , 同時兼容現有服務器平臺 , 被視為緩解 AI 內存供應壓力的重要突破口 。
從技術參數來看 , 英偉達在GB300 NVL72 規格表中披露的 SOCAMM 性能頗具競爭力:支持高達 18TB 的存儲容量 , 帶寬達到 14.3TB/s , 這一數據已接近部分中端 HBM 產品的水平 , 而其功耗卻能控制在更合理的范圍內 。 這意味著搭載 SOCAMM 的 AI 服務器在處理大規模數據集時 , 既能保持高效的運算能力 , 又能降低整體能耗 , 符合數據中心綠色化發展的趨勢 。 正因如此 , SOCAMM 自曝光以來便吸引了產業鏈上下游的高度關注 , 內存廠商、服務器制造商及 AI 應用企業都在密切跟蹤其商業化進展 。
在產業鏈布局上 , 各大內存廠商對SOCAMM 的態度直接影響著技術落地的節奏 。 美光作為率先宣布出貨 SOCAMM 產品的廠商 , 無疑在這場競爭中搶占了先發優勢 。 今年三月 , 美光明確表示已向客戶交付基于 LPDDR5X 的 SOCAMM 模塊 , 其快速響應能力不僅體現了技術儲備的深厚 , 更反映出對英偉達戰略的緊密配合 。 相比之下 , 三星和 SK 海力士的進度稍顯滯后 , 二者均計劃在 2025 年第三季度實現量產 。 這種時間差本可能讓美光在初期市場中占據主導地位 , 但 SOCAMM1 若被擱置 , 將為三星和 SK 海力士提供調整策略的窗口期 。 兩家企業可借此機會優化產品設計、提升產能準備 , 甚至可能通過技術創新在 SOCAMM2 時代實現彎道超車 , 從而改變當前內存市場的競爭格局 。
對于英偉達而言 , 放棄SOCAMM1 轉而研發 SOCAMM2 的決策背后 , 或許隱藏著對技術成熟度的審慎考量 。 有報道提到 SOCAMM1 因技術故障被暫停 , 雖未披露具體問題 , 但結合內存技術的特性來看 , 可能涉及信號完整性、兼容性或可靠性等核心環節 。 在高速數據傳輸場景下 , 內存模塊與芯片之間的信號干擾、溫度穩定性以及長期運行的故障率都是必須攻克的難題 。 尤其是在 AI 服務器 7x24 小時高強度運行的環境中 , 任何微小的技術缺陷都可能被放大 , 導致系統崩潰或數據錯誤 , 這對英偉達的品牌聲譽和市場信任度將造成嚴重打擊 。 因此 , 選擇暫停第一代產品并升級至 SOCAMM2 , 可能是英偉達在技術完善與市場需求之間做出的平衡 —— 通過延長研發周期確保產品質量 , 避免倉促上市帶來的風險 。
SOCAMM2的技術升級方向同樣值得關注 。 據報道 , 其數據速率將從 8533MT/s提升至9600MT/s , 這意味著單位時間內的數據傳輸量將增加約 12.5% , 能更好地適配下一代AI芯片的運算需求 。 更重要的是 , SOCAMM2 可能支持LPDDR6 , 作為LPDDR5X的繼任者 , LPDDR6在帶寬、能效比上有進一步提升 , 且具備更強的多通道協同能力 , 這將為SOCAMM的性能躍升提供底層支撐 。 不過 , LPDDR6目前仍處于技術驗證階段 , 其商業化成熟度、與現有平臺的兼容性以及量產成本都存在不確定性 , 這也是供應商尚未對此確認的重要原因 。 若SOCAMM2能成功整合LPDDR6技術 , 將進一步拉大與傳統內存方案的差距 , 鞏固其在AI服務器領域的競爭力 。
從市場預期來看 , 今年夏初行業報告預測SOCAMM 的出貨量將達到 60 萬至 80 萬臺 , 這一數字背后是市場對低成本高帶寬內存的迫切需求 。 AI 產業的爆發式增長帶動了服務器市場的擴容 , 據 IDC 數據 , 2024 年全球 AI 服務器市場規模預計突破 500 億美元 , 其中內存成本占比超過 30% 。 SOCAMM 的規模化應用本可有效降低 AI 服務器的硬件成本 , 加速 AI 技術在各行各業的普及 。 然而 , 若 SOCAMM1 的部署計劃受阻 , 短期內可能加劇內存供應的緊張局面 , HBM 的市場需求或進一步攀升 , 導致其價格維持高位 。 對于中小型 AI 企業而言 , 這意味著硬件投入成本將增加 , 可能延緩其技術研發與產品落地的進度 。
盡管當前消息尚未得到官方證實 , 但SOCAMM 的意義已不言而喻 。 在 HBM 產能短期內難以大幅提升的情況下 , SOCAMM 作為替代方案 , 其技術演進將直接影響 AI 產業的發展節奏 。 英偉達若能順利完成從 SOCAMM1 到 SOCAMM2 的過渡 , 不僅能鞏固其在 AI 芯片領域的領先地位 , 更能推動整個內存產業鏈的技術升級 。 對于內存廠商而言 , 能否抓住 SOCAMM2 的機遇 , 將成為其在 AI 內存市場中占據一席之地的關鍵 。
目前 , 整個行業都在等待英偉達及相關供應商的官方回應 。 無論最終結果如何 , SOCAMM 技術的發展軌跡都反映出 AI 時代內存技術的激烈競爭與快速迭代 。 在高帶寬、低功耗、低成本的多重需求驅動下 , 內存技術的創新將持續突破邊界 , 為 AI 產業的蓬勃發展提供堅實的硬件支撐 。 而這場圍繞 SOCAMM 的技術博弈 , 也將成為觀察全球半導體產業格局演變的重要窗口 。
*聲明:本文系原作者創作 。 文章內容系其個人觀點 , 我方轉載僅為分享與討論 , 不代表我方贊成或認同 , 如有異議 , 請聯系后臺 。


想要獲取半導體產業的前沿洞見、技術速遞、趨勢解析 , 關注我們!

    推薦閱讀