Memories AI構建可穿戴設備和機器人視覺記憶層

Memories AI構建可穿戴設備和機器人視覺記憶層

Shawn Shen認為 , AI要在物理世界中取得成功 , 就需要記住它所看到的一切 。 Shen的公司Memories.ai正在使用英偉達AI工具 , 為可穿戴設備和機器人構建能夠記憶和回憶視覺記憶的基礎設施 。

Memories.ai在周一的英偉達GTC會議上宣布與半導體巨頭英偉達展開合作 。 通過這一合作伙伴關系 , Memories.ai使用英偉達的Cosmos-Reason 2(一款推理視覺語言模型)和英偉達Metropolis(一款視頻搜索和摘要應用)來繼續開發其視覺記憶技術 。
Shen告訴TechCrunch , 他和聯合創始人兼首席技術官Ben Zhou在為Meta的Ray-Ban眼鏡構建AI系統時萌生了這個創業想法 。 開發AI眼鏡讓他們思考 , 如果用戶無法回憶他們錄制的視頻數據 , 人們在現實生活中究竟如何使用這項技術 。
他們四處尋找是否有人已經在為AI構建這種類型的視覺記憶解決方案 。 當他們發現沒有時 , 決定從Meta獨立出來 , 自己構建這個解決方案 。
\"AI在數字世界中已經表現得非常好 。 那么物理世界呢?\"Shen說道 。 \"AI可穿戴設備、機器人同樣需要記憶 。 最終 , 你需要AI擁有視覺記憶 。 我們相信那個未來 。 \"
一般來說 , AI系統的記憶能力相對較新 。 OpenAI在2024年更新了ChatGPT , 開始記憶過往對話 , 并在2025年優化了這一功能 。 馬斯克的xAI和谷歌Gemini在過去兩年中也推出了自己的記憶工具 。
但Shen表示 , 這些進展主要專注于基于文本的記憶 。 基于文本的記憶更加結構化 , 更容易索引 , 但對于主要通過視覺與世界交互的物理AI應用來說 , 幫助并不大 。
Memories.ai于2024年成立 , 迄今已籌集1600萬美元 , 包括2025年7月的800萬美元種子輪和800萬美元的后續輪次 。 該輪由Susa Ventures領投 , 參投方包括Seedcamp、Fusion Fund和Crane Venture Partners等 。
Shen表示 , 成功構建這個視覺記憶層需要兩個要素:構建將視頻嵌入和索引為可存儲和回憶數據格式所需的基礎設施 , 以及獲取訓練模型所需的數據 。
公司于2025年7月推出了其大型視覺記憶模型(LVMM) 。 Shen表示 , 它可以比作本月早些時候發布的Gemini Embedding 2(一個多模態索引和檢索模型)的縮小版本 。
在數據收集方面 , 公司創建了LUCI , 這是一個由公司\"數據收集員\"佩戴的硬件設備 , 用于錄制訓練模型所需的視頻 。 Shen表示 , 他們不打算成為硬件公司 , 也不會銷售這些設備 , 而是因為他們對專注于高清和耗電視頻格式的現成視頻錄制器不滿意 , 所以自己構建了設備 。
公司發布了LVMM的第二代產品 , 并與高通簽署合作協議 , 從今年晚些時候開始在高通處理器上運行 。
【Memories AI構建可穿戴設備和機器人視覺記憶層】Shen說 , Memories.ai目前也在與一些大型可穿戴設備公司合作 , 但拒絕透露具體是哪些公司 。 盡管現在有一些需求 , Shen認為可穿戴設備和機器人領域還有更大的機會 。
\"在商業化方面 , 我們更專注于模型和基礎設施 , 因為我們最終認為可穿戴設備和機器人市場會到來 , 但可能不是現在 , \"Shen說道 。
Q&A
Q1:Memories.ai的視覺記憶技術是什么?
A:Memories.ai開發的視覺記憶技術是為可穿戴設備和機器人構建能夠記憶和回憶視覺記憶的基礎設施 , 讓AI系統能夠記住它們所看到的內容 , 主要應用于物理世界中的AI設備 。
Q2:LVMM大型視覺記憶模型有什么特點?
A:LVMM是Memories.ai在2025年7月推出的大型視覺記憶模型 , 可以比作谷歌Gemini Embedding 2的縮小版本 , 具備多模態索引和檢索功能 , 專門處理視覺數據而非文本數據 。
Q3:Memories.ai目前的商業化策略是什么?
A:公司更專注于模型和基礎設施開發 , 已與英偉達和高通等公司建立合作伙伴關系 , 同時與大型可穿戴設備公司合作 , 但認為可穿戴設備和機器人市場的大規模商業化時機還未到來 。

    推薦閱讀