AI芯片獨角獸獲11億美元融資,估值已達281億美元!

AI芯片獨角獸獲11億美元融資,估值已達281億美元!

文章圖片

AI芯片獨角獸獲11億美元融資,估值已達281億美元!

文章圖片

AI芯片獨角獸獲11億美元融資,估值已達281億美元!

當地時間2025年9月30日 , 號稱業界性能最強的人工智能(AI)基礎設施制造商Cerebras Systems宣布完成超額認購的11億美元G輪融資 , 投后估值達81億美元 。

本輪融資由富達管理研究公司(Fidelity Management & Research Company)和Atreides Management領投 。 老虎環球基金(Tiger Global)、Valor Equity Partners和1789 Capital以及現有投資者Altimeter、Alpha Wave和Benchmark也參與了本輪融資 。
作為全球最快的推理服務提供商 , Cerebras 將利用這筆資金擴展其先鋒技術組合 , 持續在 AI 處理器設計、封裝、系統設計和 AI 超級計算機領域進行創新 。 此外 , Cerebras 還將擴大其在美國的制造能力和數據中心容量 , 以滿足市場對 Cerebras 產品和服務的爆炸式增長的需求 。
Cerebras 聯合創始人兼首席執行官 Andrew Feldman 表示:“自成立以來 , 我們一直得到業內最有見識的投資者的支持 。 他們看到了人工智能的歷史性機遇 , 并選擇投資 Cerebras 。 我們很榮幸能夠擴大我們與全球頂尖投資者的聯盟 。 ”
Cerebras Systems的三代AI芯片
資料顯示 , Cerebras Systems是位于美國加州森尼韋爾市(Sunnyvale)的一家AI芯片公司 , 由公司CEO Andrew Feldman與Jean-Philippe Fricker、Michael James、Gary Lauterbach和Sean Lie等創始人于2016年創立 。 其中 , Andrew Feldman曾創建微型服務器公司SeaMicro , 并以3.34億美元的價格賣給了AMD 。Cerebras公司認為 , 目前AI面臨的挑戰是如何將多組芯片連接起來 , 但又能兼顧能耗和處理速度 。 而Cerebras解決方案是制造一個巨型芯片 , 以更快地處理數據 。 Feldman指出 , “傳統策略是將一個大芯片切成小塊 , 再把有瑕疵的小塊扔掉 。 生產更大芯片較困難 , 且可能浪費珍貴的硅 。 公司開發的系統可讓其芯片抵御瑕疵” 。
為此 , 在2019年8月 , Cerebras推出了“世界上最大”的半導體AI芯片Wafer Scale Engine(以下簡稱“WSE”) , 其采用了一整張12英寸晶圓來制作 , 基于臺積電16nm工藝 , 核心面積超過46225mm2 , 集成了高達1.2萬億個晶體管 , 擁有40多萬個AI計算內核 , 以及高達18GB的片上SRAM內存 。 這也帶來了超強的AI算力和超高的內存帶寬 , 可以很好的應對各類AI加速任務 。
隨后在2021年4月 , Cerebras推出了第二代的晶圓級AI芯片WSE-2 , 雖然芯片面積依然是462.25平方厘米 , 但是制程工藝由臺積電16nm工藝提升到了7nm工藝 , 這也使得WSE-2的晶體管數量提高到了2.6萬億個 , AI內核數量為85萬個 , 片上內存SRAM為40GB , 內存帶寬為20PB/s , 結構帶寬高達220PB/s 。
當時 , Cerebras 還宣布 , 基于WSE-1的Cerebras CS 系列人工智能超級電腦在過去的一年中 , 已經被包括Argonne 國家實驗室、Lawrence Livermore 國家實驗室、匹茲堡超級計算機中心(PSC)、愛丁堡大學的超級電腦中心、東京電子設備公司(Tokyo Electron Devices)、制藥產業大廠葛蘭素史克(GlaxoSmithKline)等在內的知名機構部署 。
2024年3月 , Cerebras又推出了其第三代的晶圓級AI芯片WSE-3 , 基于臺積電5nm制程 , 芯片面積為46225平方毫米 , 擁有的晶體管數量達到了4萬億個 , 擁有90萬個AI核心 , 44GB片上SRAM , 整體的內存帶寬為21PB/s , 結構帶寬高達214PB/s 。 使得WSE-3具有125 FP16 PetaFLOPS的峰值性能 , 性能達到了上一代WSE-2的兩倍 , 可用于訓練業內一些最大的人工智能模型 。


【AI芯片獨角獸獲11億美元融資,估值已達281億美元!】盡管性能翻了一番 , CS-3仍保持著與前代產品相同的功耗 。 它還簡化了大型語言模型(LLM)的訓練 , 與GPU相比 , 所需代碼減少了97% 。 例如 , 該公司表示 , GPT-3大小的模型在Cerebras平臺上只需要565行代碼 。

性能遙遙領先英偉達GPU
Cerebras 表示 , 自 2024 年底推出推理服務以來 , 公司經歷了非凡的增長 。 在過去的一年里 , Cerebras 每天都保持著性能冠軍的寶座 , 在開源和閉源模型上 , 其速度通常比 Nvidia GPU 快 20 倍以上 。

2025年5月底 , Cerebras宣布基于其CS-3系統的云服務在400B參數的Llama 4 Maverick模型上創造了LLM推理速度的世界紀錄 , 達到每個用戶每秒2500個Token , 這是英偉達DGX B200(包含了8個Blackwell GPU)系統的2.5倍 。 這項記錄是由基準公司Artificial Analysis測得的 。
“自成立以來 , 我們已經在數百種模型中測試了每個 AI 推理提供商 。 Cerebras 始終是最快的 , ”領先的基準測試公司 Artificial Analysis 的首席執行官 Micah Hill-Smith 表示 。
Cerebras 的性能優勢帶來了巨大的需求 。 新的實時用例(包括代碼生成、推理和代理工作)提升了速度帶來的好處 , 并降低了速度慢的成本 , 從而吸引客戶選擇 Cerebras 。 如今 , Cerebras 每月在其自有云平臺、客戶本地以及領先的合作伙伴平臺上提供數萬億個代幣 。
Cerebras 在2024年披露的招股書顯示 , Cerebras 2022年營收2462萬美元 , 虧損17772萬美元;2023年收入7874 萬美元 , 凈虧損12716萬美元;2024 年上半年營收為1.36億美元 , 較去年同期的860萬美元增加超過15倍 。 不過 , 2024年前六個月依然虧損了6700萬美元 , 比前一年同期7800萬美元略有減少 。
阿聯酋的AI廠商G42是Cerebras的最大客戶 。 Cerebras是自2023年開始G42供應基于其AI芯片的超級電腦 。 根據Cerebras招股書 , G42占該公司2024年上半年營收87% , G42也承諾2025年4月前將購買價值3.35億美元Cerebras股票 , 持股比例超過5% 。
Cerebras稱 , 2025年 , 包括AWS、Meta、IBM、Mistral、Cognition、AlphaSense、Notion等數百家AI領軍企業將選擇Cerebras , 加入葛蘭素史克、梅奧診所、美國能源部、美國國防部等企業和政府的行列 。 個人開發者也選擇Cerebras進行AI開發 。 在領先的開發者AI中心Hugging Face上 , Cerebras是排名第一的推理提供商 , 每月處理超過500萬個請求 。
編輯:芯智訊-浪客劍

    推薦閱讀