
【\AI Pod\進駐美國中小城市 創建低延遲邊緣計算基礎設施】
模塊化基礎設施公司Moonshot Energy、QumulusAI以及Connect Nation Internet Exchange Points(IXP.us)共同宣布 , 計劃在美國25個地點設計和部署QAI Moon Pods , 并最終擴展至125個城市 。
這一合作將三家公司的運營商中立互聯、模塊化AI基礎設施以及GPU即服務技術相結合 , 創建可擴展的國家級推理和AI工作負載基礎設施 , 從而降低延遲并將AI計算能力擴展至傳統超大規模數據中心無法覆蓋的區域 。
首次部署將于2026年7月在堪薩斯州威奇托州立大學校園開始 , 隨后預計將擴展至其他25個城市 。 這些公司已經在美國大學研究校園和市政區域識別出多達125個潛在部署地點 。
IXP.us聯合首席執行官Hunter Newby向Data Center Knowledge表示:\"我們正在建設互聯網交換點和AI模型——這不是數據中心項目 , 我們不是在建設兆瓦或千兆瓦級別的設施 。 \"他補充說 , AI Pod的建設周期為幾個月 , 而非數年 。
模塊化方案
這些2000千瓦的模塊化單元由Moonshot設計和建造 , GPU基礎設施則由QumulusAI負責 。 這些公司表示 , AI Pod將在邊緣提供低延遲AI計算 , 而無需依附于大型超大規模數據中心的限制 。
Moonshot首席執行官Ethan Ellenberg在聲明中說:\"這一合作伙伴關系代表了電力、計算和互聯在AI需求轉移的精確點上的物理融合 。 \"
HyperFrame Research首席執行官兼分析師Steven Dickens告訴Data Center Knowledge , 這一合作解決了服務不足地區的需求 。
他說:\"這是將推理帶到邊緣和更近的地方 。 我們正在建設這些巨大的訓練數據中心 , 它們對于訓練用途來說非常出色 。 但在接下來的幾年里 , 我們可能會看到部署到推理的GPU數量是訓練GPU的10倍 。 這將應用于計算機視覺、智能零售、智能制造和醫療保健 。 對于所有這些用例 , 你需要以良好的往返延遲訪問GPU 。 \"
他補充說:\"有大量不同的行業將需要AI , 而且他們需要本地化的AI 。 \"
推理市場布局
這些公司發現了一個機會 , 即滿足那些無法獲得昂貴數據中心GPU算力地區的推理需求 。
QumulusAI首席執行官Mike Maniscalo表示:\"所有工作負載都越來越受推理驅動、對延遲敏感且分布式 , 但基礎設施還沒有跟上步伐 。 這一合作伙伴關系讓我們能夠將GPU計算直接放置在網絡邊緣 , 即數據流動和決策發生的地方……我們正在建設一個國家級平臺 , 使高性能AI計算在超大規模數據中心之外變得實用、可擴展且經濟可行 。 \"
Q&A
Q1:QAI Moon Pods是什么?有什么特點?
A:QAI Moon Pods是由Moonshot Energy、QumulusAI和IXP.us三家公司合作開發的模塊化AI基礎設施 。 它采用2000千瓦的模塊化設計 , 能夠在邊緣提供低延遲AI計算服務 , 建設周期僅需幾個月而非數年 。
Q2:這個項目計劃在哪些地方部署?規模如何?
A:項目計劃首先在美國25個地點部署 , 最終擴展至125個城市 。 首次部署將于2026年7月在堪薩斯州威奇托州立大學校園開始 , 部署地點主要選擇在美國大學研究校園和市政區域 。
Q3:為什么要在中小城市部署AI Pod而不是大型數據中心?
A:因為推理工作負載越來越需要低延遲和分布式部署 , 而傳統超大規模數據中心無法覆蓋所有地區 。 AI Pod可以將GPU計算直接放在網絡邊緣 , 滿足計算機視覺、智能零售、智能制造和醫療保健等行業的本地化AI需求 。
推薦閱讀
- 谷歌DeepMind CEO:中國AI模型與美國差距僅有數月
- 美國史上最大半導體項目今日動工!
- 2025美國專利排名出路!華為擊敗蘋果,位居第四!
- 美國政府批準向中國出口英偉達H200人工智能芯片
- 美國修改禁令,英偉達H200芯片能對中國銷售,不需要再閹割了?
- 特朗普樂壞了:intel太給力,半年幫美國賺回100多億美元
- 果然得靠中國芯片“救命”?美國PC大廠,要使用中國內存了
- 國仁對話楊元慶: 聯想CES秀一票難求,美國芯片四巨頭捧場
- 美國FCC公布無人進口豁免名單,中企被排除在外
- Meta智能眼鏡:美國太火,國際停售
