HBM,十年預告

HBM,十年預告

文章圖片

HBM,十年預告

文章圖片

HBM,十年預告

本文由半導體產業縱橫(ID:ICVIEWS)綜合
HBM , 未來已來 。
HBM利用 3D 堆疊的 DRAM 架構 , 提供卓越的數據帶寬和效率 。 與依賴更寬總線和更高時鐘速度的傳統內存模塊不同 , HBM 將多個內存芯片垂直堆疊 , 并與處理器緊密集成 。 這種方法顯著拓寬了通信接口 , 同時降低了延遲和功耗 。 HBM 由 JEDEC 標準化 , 最初由三星、AMD 和 SK 海力士共同開發 , 并于 2015 年首次在 AMD 的 Fiji GPU 中實現商用 。 自那時起 , HBM 已成為高性能應用的關鍵推動者 , 包括 GPU、AI 加速器、網絡設備 , 甚至需要高帶寬緩存或主內存的 CPU 。
HBM 的興起源于“內存墻”這一持續存在的挑戰——處理器速度與內存帶寬之間日益擴大的差距 。 隨著 CPU 和 GPU 的發展 , DDR 和 GDDR 等傳統 DRAM 解決方案難以跟上步伐 。 早期嘗試彌合這一差距的方法包括提高時鐘頻率和總線寬度 , 但功耗和信號完整性的限制使得進一步擴展變得不切實際 。 這促使了 3D 堆疊內存等創新解決方案的出現 。
在 HBM 之前 , JEDEC 于 2011 年為移動設備推出了 Wide I/O DRAM , 美光則開發了混合內存立方體(HMC) , 這是另一種堆疊 DRAM 概念 。 這些早期設計為 HBM 鋪平了道路 , HBM 于 2013 年正式標準化 , 并在兩年后首次實現商用部署 。 自那時起 , 多代 HBM 不斷提升內存帶寬和效率 , 鞏固了其作為高性能計算基礎組件的地位 。
如今 , 下一代 HBM 內存已在未來 10+ 年內被預告 , 包括 HBM4 將出現在 NVIDIA 的新 Rubin AI GPU 和 AMD 剛剛發布的 Instinct MI400 AI 加速器上 , 但我們還有關于 HBM5、HBM6、HBM7 和 HBM8 的詳細信息 , 它們將于 2038 年出現 。
在KAIST(韓國科學與技術研究院)和Tera(Terabyte互連和封裝實驗室)發布的新演示文稿中 , 這兩家公司展示了一個冗長的HBM路線圖 , 其中包含下一代HBM內存標準的詳細信息 。 HBM4 將于 2026 年推出 , 配備 NVIDIA Rubin R100 和 AMD Instinct MI500 AI 芯片 , Rubin 和 Rubin Ultra AI GPU 分別使用 HBM4 和 HBM4E 。
NVIDIA 的新 Rubin AI GPU 將具有 8 個 HBM4 站點 , 其中 Rubin Ultra 是 HBM4 站點的兩倍 , 達到 16 個 HBM4 站點 , 每個變體有兩個 GPU 芯片橫截面 , Rubin Ultra 具有更大的橫截面 , 計算密度是常規 Rubin AI GPU 的兩倍 。
【HBM,十年預告】
該研究公司調侃說 , NVIDIA的新Rubin AI芯片的GPU 芯片尺寸為 728mm2 , 每個芯片的功率高達 800W , 中介層尺寸為 2194mm2(46.2mm x 48.5mm) , 將包含 288GB 到 384GB 的 HBM4 , 內存帶寬為 16-32TB/sec 。 芯片總功率將達到 2200W , 是當前一代 Blackwell B200 AI GPU 的兩倍 。 AMD 即將推出的 Instinct MI400 AI 芯片具有更多的 HBM4 , 具有 432GB 的 HBM4 容量和高達 19.6TB/秒的內存帶寬 。
HBM4:即將推出的 HBM4 內存標準將在 2048 位 IO 上具有 8Gbps 數據速率 , 每個堆棧的內存帶寬為 2TB/秒 , 每個芯片的容量為 24Gb , 相當于高達 36-48GB 的 HBM4 內存容量 , 每個堆棧的功率包為 75W 。 HBM4 將使用直接芯片 (DTC) 液體冷卻 , 并將使用基于 HBM 的定制芯片(HBM-LPDDR) 。
HBM4E:更強大的 HBM4E 標準可實現高達 10Gbps 的數據速率、每個堆棧 2.5TB/秒的內存帶寬和高達 32Gb 的單片容量 , 通過 12-Hi 和 16-Hi 堆棧提供高達 48-64GB 的 HBM4 內存容量 , 每個 HBM 封裝的功率高達 80W 。
HBM5:我們將看到下一代 HBM5 內存標準首次亮相 , NVIDIA 的下一代 Feynman AI GPU 將于 2029 年準備就緒 , IO 通道提升至 4096 位 , 通過 16-Hi 堆棧的每個堆棧 4TB/秒的內存容量作為新基準 。 業內將看到 40Gb DRAM 芯片 , 其中 HBM5 每個堆??沈寗痈哌_ 80GB 的內存容量 , 每個堆棧的功率包增加到 100W 。

HBM6:在 HBM5 發布后 , 我們將看到 HBM6 可能會與 NVIDIA 的下一代 Feynman Ultra AI GPU(尚未確認)一起首次亮相 , 業內將看到數據速率再次翻倍至16Gbps , 擁有 4096 位 IO 通道 。 帶寬翻倍至 8TB/秒 , 每個 DRAM 芯片的容量為 48Gbps 。 HBM6 將是我們第一次看到 HBM 堆棧超過 16-Hi , HBM6 將事情推向 20-Hi 堆棧 , 每個堆棧的內存容量增加到 96-120GB , 每個堆棧的功率為 120W 。 HBM5 和 HBM6 內存都將采用浸入式冷卻解決方案 , HBM6 使用多塔 HBM(有源/混合)中介層架構 , 以及網絡交換機、 Bridge Die 和 Asymmetric TSV 在其研究階段 。

HBM7:HBM7 將擁有每個堆棧 24Gbps 的引腳速度 , 更寬的 8192 個 IO 通道(是 HBM6 的兩倍) , 每個 DRAM 芯片的容量為 64Gb , 由于使用了 20-24-Hi 內存堆棧 , 每個堆棧提供 160-192GB 的巨大 HBM7 , 以及每個堆棧的 160W 功率包 。

HBM8:我們至少在 10+ 年內不會看到 HBM8 , 預計將于 2038 年發布 , 但我們將看到 32Gbps 的數據速率和 IO 速率再次翻倍 , 達到 16384 個 IO 通道 。 HBM8 將提供每個堆棧 64TB/秒的帶寬 , 每個 DRAM 具有 80Gb 容量 , 每個堆棧高達 200-240GB 的 HBM8 內存容量 , 以及更高的 HBM 站點封裝功率 180W 。
*聲明:本文系原作者創作 。 文章內容系其個人觀點 , 我方轉載僅為分享與討論 , 不代表我方贊成或認同 , 如有異議 , 請聯系后臺 。
想要獲取半導體產業的前沿洞見、技術速遞、趨勢解析 , 關注我們!

    推薦閱讀