楊植麟、張鵬、羅福莉等齊聚一堂,他們關于OpenClaw的觀點值得一聽。

楊植麟、張鵬、羅福莉等齊聚一堂,他們關于OpenClaw的觀點值得一聽。

文章圖片

楊植麟、張鵬、羅福莉等齊聚一堂,他們關于OpenClaw的觀點值得一聽。

今天是2026中關村論壇的人工智能主題日 。
我也定了個一早的鬧鐘準時起來看 。
這個活動海淀已經辦了第三年 , 但今年的議程密度確實有點夸張 。
一上午塞進了開源聯盟成立、主權大模型白皮書發布、北京市人工智能協會揭牌 , 外加兩場圓桌 。
大模型和具身智能各一場 。 嘉賓陣容從Eclipse基金會到智譜、小米MiMo、無問芯穹 , 再到一眾具身智能公司的創始人 , 幾乎把當下AI產業鏈上最活躍的角色都拉到了同一個舞臺上 。
在我看來 , 信息密度最高的 , 還是第一場小龍蝦與AI開源圓桌 。
這場圓桌由楊植麟主持 , 嘉賓是智譜的張鵬、無問芯穹的夏立雪、小米MiMo的羅福莉 , 還有港大的黃超 。
從模型層到算力基礎設施層再到Agent應用層 , 剛好覆蓋了當下AI產業鏈的幾個關鍵環節 。
張鵬解釋了智譜GLM5 Turbo提價的邏輯 , 模型從聊天轉向干活 , 完成任務消耗的token量可能是簡單問答的十倍甚至百倍 , 提價本質上是在回歸商業價值 。
羅福莉談了中國團隊在模型結構創新上的優勢 , 尤其是長上下文架構和推理效率 。
黃超拆解了Agent在planning、memory、skill三個維度上的技術痛點 。
最后讓每人用一個詞總結未來12個月的趨勢 , 黃超說的是 生態 , 羅福莉說的是自進化 , 夏立雪說的是可持續token , 而張鵬直接點了一個最樸素的問題:算力 。
幾位嘉賓的圓桌對話 , 干貨含量極高 , 幾乎沒有什么客套和PR話術 , 聊的都是非常實在的問題 。
所以 , 我也把這場圓桌的內容做了一個完整的文字整理 , 分享給大家 。
【圓桌對話-人類校對版】
楊植麟(主持人):很榮幸今天能邀請到各位重磅的嘉賓 , 各位的背景覆蓋了不同的層面 , 從模型層到底層的算力層 , 再到上面的Agent層 。 很高興今天能和大家一起探討 , 主要的關鍵詞是開源和Agent 。 我們從第一個問題開始 , 這個問題是給所有人的 。 現在OpenClaw是最流行的產品 , 大家在日常使用OpenClaw或類似產品的過程中 , 覺得最有想象力或者印象最深刻的是什么?從技術角度來看 , 如何看待今天OpenClaw和相關Agent的演進?我們先從張鵬這邊開始 。
張鵬:好 , 首先感謝植麟的邀請 , 也感謝主辦方給這次機會跟大家交流 。 其實我很早就開始自己玩這個東西了 , 當時還不叫OpenClaw , 最早叫Claude Bot 。 畢竟我是程序員出身 , 折騰這些東西有一些自己的體驗 。 我覺得它帶給大家最大的突破點 , 在于這件事情不再是程序員或者極客們的專利 , 普通人也可以比較方便地使用頂尖模型的能力 , 尤其是在編程和智能體方面 。 所以到現在為止 , 我在跟大家交流的過程中 , 更愿意把OpenClaw這件事稱作一個腳手架 , 它提供的是一種可能性 。 在模型的基礎之上搭起一個牢固、方便又靈活的腳手架 , 大家可以按照自己的意愿去使用底層模型提供的很多新奇的東西 。 原來自己的一些想法 , 受限于不會寫代碼或者缺乏某些技能 , 今天終于可以通過很簡單的交流就把它完成 。 這對我來說是一個非常大的沖擊 , 讓我重新認識了這件事情 。
夏立雪:我最開始用OpenClaw的時候其實不太適應 , 因為我習慣于和大模型聊天的那種交流方式 , 結果發現OpenClaw反應好像比較慢 。 但后來我意識到一個關鍵的不同 , 它不是一個聊天機器人 , 而是一個能夠幫我完成大型任務的助手 。 當我開始給它提交更復雜的任務之后 , 發現它其實能做得很好 。 這件事給我一個很大的感觸 , 就是AI從最開始按token聊天 , 到現在能夠作為一個Agent幫你完成任務 , 對整個AI的想象力空間做了一個很大的提升 。 但與此同時 , 它對整個系統的能力要求也變得很高 , 這也是我一開始用會覺得卡頓的原因 。
作為基礎設施層的廠商 , 我看到OpenClaw為整個AI后續的大型系統和生態帶來了更多機遇和挑戰 , 因為現在所有能用到的資源 , 想要支撐起這樣一個快速增長的時代是不夠的 。 就拿我們公司來說 , 從一月底開始 , 基本上每兩周token用量就翻一番 , 到現在已經翻了十倍 。 上次見到這種速度 , 還是當年3G時代手機流量增長的那種感覺 。 現在的token用量 , 就像當年每個月只有一百兆手機流量的那個時代一樣 , 所有資源都需要更好的優化和整合 , 讓每一個人都能把OpenClaw這樣的AI能力用起來 。 所以作為基礎設施領域的從業者 , 我對這個時代非常激動 , 認為其中有很多值得去探索和嘗試的優化空間 。
羅福莉:我把OpenClaw視為Agent框架上一個非常革命性和顛覆性的事件 。 雖然我知道身邊深度使用編程工具的人 , 第一選擇可能還是Claude Code , 但我相信只有用過OpenClaw的人才能獨特地感受到 , 這個框架在設計上有很多地方是領先于Claude Code的 , 包括最近Claude Code的很多更新 , 其實都是在向OpenClaw靠近 。 對我自己來說 , OpenClaw這個框架帶來更多的是一種隨時隨地的想象力延伸 。 Claude Code可能最開始只能在桌面上延展創意 , 但在OpenClaw里我可以隨時隨地延展想法 。
我后來發現 , OpenClaw核心價值在于兩點:第一是它開源 , 開源對整個社區深度參與、持續改進Agent框架是一個非常重要的前置條件 。 第二 , 像OpenClaw這樣的Agent框架 , 它很大的價值在于把國內水平接近但略遜于閉源模型的這一賽道上的模型上限拉得非常高 , 在絕大部分場景里任務完成度已經非常接近Claude最新的模型 。 同時它又通過Harness系統或者Skills體系等諸多設計 , 把下限保證得非常好 。 從基座大模型的角度來說 , 它保證了下限 , 同時也拉升了上限 。 此外 , 我認為它給整個社區帶來的更大價值 , 是點燃了大家對模型之外的那一層的熱情 , 讓大家發現Agent這一層有非常多的想象力和空間可以發揮 。 這也讓社區里越來越多除研究員以外的人參與到AGI的變革當中 , 更多人接觸到更強的Agent框架 , 一定程度上在替代自己重復性的工作 , 釋放時間去做更有想象力的事情 。
黃超:從交互模式上來講 , 我覺得OpenClaw這次爆火 , 首先是因為給大家一種更有活人感的感覺 。 我們其實做Agent也有一兩年了 , 但之前包括Cursor、Claude Code這些Agent , 大家感受到的更多是一種工具感 。 OpenClaw第一次以IM軟件嵌入的交互方式 , 讓大家更有一種活人感 , 更接近于自己想象中的個人賈維斯那樣的概念 , 這是交互模式上的突破 。 另外它給大家帶來的一個啟發是 , Agent Loop這種非常簡單但高效的框架 , 再次被證明是行之有效的 。 同時它也讓我們重新思考 , 究竟是需要一個all-in-one的非常強大的智能體幫我們做很多事情 , 還是需要一個像輕量級操作系統或腳手架一樣的小管家 。 OpenClaw的答案是 , 通過這樣一個輕量級的操作系統生態 , 去撬動整個生態里所有的工具 。 隨著Skills和Harness這些機制的普及 , 越來越多的人可以設計面向OpenClaw這類系統的應用 , 賦能各行各業 。 這與整個開源生態天然結合得非常緊密 , 我覺得這兩點是它帶給我們最大的啟發 。
楊植麟(主持人):順著這個話題 , 剛才一直在討論OpenClaw 。 想問一下張鵬 , 看到最近智譜也發布了新的GLM5 Turbo模型 , 我理解在Agent能力上也做了很大的增強 , 能不能給大家介紹一下這個新模型和其他模型的不同之處?另外我們也觀察到有一個提價的策略 , 這反映了什么樣的市場信號?
張鵬:這是個很好的問題 。 前兩天我們確實緊急做了一波更新 , 這其實是我們整個發展路線中的一個階段 , 提前把它放出來了 。 這件事最主要的目的 , 是從原來簡單的對話轉向真正的干活 。 正如各位剛才說的 , OpenClaw真的讓大家覺得大模型不再只是聊天 , 而是能幫我干活 。 但干活背后對能力的要求是非常高的 , 它需要自主進行長程任務規劃 , 不斷壓縮上下文、debug、處理多模態信息等等 , 這和傳統面向對話的通用模型的要求有很大的不同 。 所以GLM5 Turbo在這方面做了專門的加強 , 尤其是長程任務如何能夠持續自主loop而不中斷 , 這里做了很多工作 。
另外 , 大家也提到了token消耗的問題 。 讓一個聰明的模型去完成復雜任務 , token消耗量是非常巨大的 , 可能一般人體會不到 , 只會看到賬單上的錢在不停地往下掉 。 所以我們在這方面也做了優化 , 面臨復雜任務時用更高效的token效率來完成 。 模型架構上本質還是多任務協同的通用架構 , 只是在能力上做了一些偏向性的加強 。 至于提價這件事 , 其實也很順暢地能跟大家解釋 。 現在不再是簡單的一問一答 , 背后的思考鏈路很長 , 還要通過寫代碼的方式跟底層基礎設施打交道、隨時debug和糾錯 。 完成一個任務需要的token量 , 可能是原來回答一個簡單問題的十倍甚至百倍 。 模型變得更大 , 推理成本相應提高 , 所以我們把價格回歸到正常的商業價值上 。 長期靠低價競爭不利于整個行業發展 , 這樣才能持續在商業化路徑上形成良性閉環 , 不斷優化模型能力 , 持續給大家提供更好的模型和相應的服務 。
楊植麟(主持人):非常好的分享 。 現在開源模型和推理算力已經開始形成一個生態 , 各種開源模型可以在不同的推理算力上為用戶提供更多價值 。 隨著token量的報價變化 , 我們可能也正在從訓練時代逐漸進入推理時代 。 想請教一下立雪 , 從infra的層面來看 , 推理時代對于無問芯穹意味著什么?
夏立雪:我們是一家誕生在AI時代的基礎設施廠商 , 現在在為Kimi、智譜提供服務 , 也在跟MiniMax合作 , 幫助大家更高效地用好我們這個token工廠 。 我們也在和很多高校、科研院所合作 , 所以一直都在思考一個問題:AGI時代所需要的基礎設施 , 究竟應該是什么樣的?我們怎么能夠一步步地在這個過程中去實現它、推演它 。
我們已經做好了充分的準備 , 也看清了短期、中期、長期不同階段需要解決的問題 。 當前最緊迫的問題 , 就是像Claude這類模型帶動的整個token量的暴增 , 對我們系統效率提出了更高的優化需求 , 價格的增長也是在這個需求壓力下的一種應對方式 。
我們一直以來都是從軟硬件打通的方式來布局和解決這個問題 。 我們接入了幾乎所有種類的計算芯片 , 把國內十幾種芯片和幾十個不同的算力集群統一連接起來 。 這樣 , 當資源不足時 , 我們能做到兩件事:第一 , 把能用的資源都用起來;第二 , 讓每一個算力都用在刀刃上 , 發揮出最大的轉化效率 。 所以當前階段我們要解決的核心問題 , 就是如何打造一個更高效的token工廠 。 為此我們做了很多優化 , 包括讓模型與硬件在顯存等方面實現最優適配 , 也在探索在最新的模型結構和硬件結構下能否產生更深度的化學反應 。
不過 , 解決當前的效率問題 , 我們只是打造了一個標準化的token工廠 。 面向Agent時代 , 這還遠遠不夠 。 就像剛才說的 , Agent更像一個人 , 你可以交給他一項任務 。 我堅定地認為 , 當前云計算時代的很多基礎設施 , 是為服務程序、服務人類工程師而設計的 , 而不是為AI設計的 。 現在的狀態有點像:我們搭了一套基礎設施 , 上面留了一個為人類工程師設計的接口 , 然后在這上面再包一層去接入Agent 。 這種方式實際上是用人類操作的能力邊界 , 限制了Agent的發揮空間 。
舉個例子 , Agent能夠在秒級甚至毫秒級思考并發起任務 , 但我們之前的底層K8S這些能力并沒有為此做好準備 , 因為人類發起任務大概是分鐘級別的 。 所以我們需要進一步構建我們稱之為Agentic Infra的能力 , 打造一個更智慧化的算力投放工廠 。 這是無問芯穹現在正在做的事情 。
從更長遠的未來來看 , 真正AGI時代到來的時候 , 我們認為連基礎設施本身都應該是一個智能體 , 應該能夠自我進化、自我迭代 , 形成一個自主的組織 。 相當于有一個CEO , 這個CEO是一個Agent , 比如一個Claude在管理整個基礎設施 , 根據AI客戶的需求自己提需求、迭代自己的基礎設施 。 只有AI與AI之間才能更好地形成耦合 。 所以我們也在做一些讓Agent與Agent之間更好通信的事情 , 比如cache to cache這樣的復制能力 。
我們一直認為 , 基礎設施與AI的發展不應該是隔離的狀態 , 而應該產生非常豐富的化學反應 。 這才是真正的軟硬協同 , 真正的算法與基礎設施協同 。 這也是無問芯穹一直想實現的使命 。
楊植麟(主持人):接下來想問問福莉 。 小米最近發布了新的模型 , 也開源了一些背后的技術 , 我覺得對社區做出了很大的貢獻 。 想請問一下 , 小米在做大模型方面有什么獨特的優勢?
羅福莉:我想先把這個問題稍微拓展一下 , 不只聊小米的優勢 , 而是聊聊中國做大模型的團隊在這件事上的優勢 , 我覺得這個話題有更廣泛的價值 。
大概兩年前 , 我就觀察到中國的基座大模型團隊已經開始了一個非常好的突破 。 這個突破是:在有限算力的條件下 , 尤其是在互聯帶寬受限的情況下 , 如何突破這些低端算力的限制 , 并由此催生了一些看似是為效率妥協的模型結構創新 , 比如DeepSeek v2、v3系列的細粒度MoE等等 。 但我們后來能看到 , 這些創新引發的是一場變革 , 也就是在算力一定的條件下 , 如何發揮出最高的智能水平 。 我覺得DeepSeek給了國內所有技術大模型團隊一份勇氣和信心 。
雖然今天我們自己的國產芯片 , 無論是推理芯片還是訓練芯片 , 已經不再像以前那樣受到嚴重限制 , 但我們能看到 , 正是那些限制催生了我們對更高訓練效率、更低推理成本的模型結構的全新探索 。 比如最近出現的hybrid sparse或linear attention結構 , 有DSA、NSA , Kimi有KSA , 小米也有面向下一代結構的high sparse架構 。 這區別于MiMo這一代結構 , 是我們面向Agent時代去思考的 , 如何在Agent時代做出更好的模型結構創新 。
我為什么認為結構創新如此重要?因為我們剛才聊到了long context這個話題 。 如果大家真實地去用OpenClaw就會發現 , 越用越好用 , 越用越聰明 。 它的前提是推理的context足夠長 。 long context是一個談論了很久的話題 , 但真正能做到在超長context下表現強勁、推理成本足夠低的模型 , 其實并不多 。 很多模型不是做不到百萬甚至千萬token的context , 而是推理成本太高、速度太慢 。 只有當你能在百萬甚至千萬context下做到成本夠低、速度夠快 , 才會有真正高生產力價值的任務被交給這個模型 , 從而激發模型在long context場景下完成更高復雜度的任務 。 我們可能需要在這樣千萬甚至億級context的規模下 , 才能實現模型的自迭代 。 所謂模型的自迭代 , 就是它可以在復雜的環境里依靠超長context完成對自我的進化 , 這個進化可能是對Agent框架本身的 , 也可能是對模型參數本身的 , 因為我們認為long context本身就是對參數的一種進化 。
所以 , 怎么實現long context efficient的架構 , 以及在推理側做到long context efficient , 是一個全方位的競爭 。 這是我們大約一年前就開始探索的問題 。 而如今 , 怎么在真實的長程任務上實現穩定性和高上限的效果 , 是我們現在在持續迭代的創新方向 。 我們在思考如何構造更有效的學習算法 , 如何采集到真實的、在百萬乃至千萬上下文里具有長距依賴的文本 , 以及結合復雜環境產生的trajectory , 這是我們正在經歷的事情 。
但我能看到更長期的事情是 , 大模型本身在飛速進步 , 加上Agent框架的加持 , 推理需求已經在過去一段時間內增長了近十倍 。 那今年整個token的增長會不會達到百倍?這又將我們帶入另一個維度的競爭 , 那就是算力 , 推理芯片 , 乃至往下到能源層面 。 這是我對這個問題的判斷 , 也期待從大家身上學到更多 。
楊植麟(主持人):非常有insight的分享 。 下面想問一下黃超 , 因為你也開發了一些非常有影響力的agent項目 , 包括nano bot , 在社區里也有很多粉絲 。 想問一下 , 從agent的harness或者說應用層面 , 接下來你覺得有哪些技術方向是比較重要、大家需要去關注的?
黃超:感謝 。 我覺得首先可以從agent的幾個關鍵技術模塊來拆解 , 包括planning、memory和tool use 。
從planning來講 , 現在面向長鏈路任務或者非常復雜上下文的場景 , 比如說五百步甚至更長的任務 , 很多模型不一定能做好planning , 我覺得本質上是模型不具備這方面的隱性知識 , 尤其是在一些復雜垂直領域 。 未來可能需要把各類復雜任務的知識固化到模型里 , 這是一個方向 。 當然 , skill和harness這種機制 , 在一定程度上也是在緩解planning層面的錯誤 , 因為它提供了比較高質量的skill , 本質上是在幫助模型去完成一些較難的task 。
關于memory , 我的感受是它永遠存在信息壓縮不準確、召回不準的問題 。 當整個長鏈路任務和復雜場景展開時 , memory會急劇膨脹 , 這對整個memory架構造成很大壓力 。 目前包括各類agent框架基本上都采用最簡單的文件系統、Markdown格式來做memory , 通過文件共享來協作 。 我覺得未來memory應該走向分層設計 , 并且需要解決通用性的問題 , 因為coding場景、deep research場景、多媒體場景的數據模態差異很大 , 如何對這些memory做好檢索索引、提升效率 , 這永遠是一個trade off 。
另外 , 現在agent框架讓大家創建agent的門檻大幅降低 , 未來可能不止一個agent , 我也看到有些產品推出了Agent Swarm這樣的機制 , 相當于每個人會擁有一群龍蝦 。 一群龍蝦相比一個龍蝦 , 上下文的暴增是可以想象的 , 這對memory帶來的壓力非常大 。 如何管理一群龍蝦帶來的上下文 , 目前還沒有很好的機制 , 尤其是在復雜coding、科研發現這類場景下 , 對模型和整個agent架構都是不小的挑戰 。
關于tool use , 當年MCP存在的問題 , 比如質量沒有保障、存在安全隱患 , 現在在skill里依然存在 。 目前看似有很多skill , 但高質量的skill其實比較少 , 低質量的skill會嚴重影響agent完成任務的完成度 。 另外skill也存在惡意注入的風險 。 所以我覺得tool use這塊可能需要整個社區共同努力 , 把skill生態發展得更好 , 甚至探索如何在執行過程中進化出新的skill 。 以上這些 , 是我認為當下agent在planning、memory、skill三個維度上存在的痛點 , 以及未來潛在的方向 。
楊植麟(主持人):可以看到剛才兩位嘉賓從不同視角討論了同一個問題 , 隨著任務復雜度增加 , 上下文會急劇膨脹 。 從模型層面可以去提升原生的上下文處理能力 , 從agent harness層面 , 則是通過planning、memory , 包括multi-agent的harness , 在模型能力一定的情況下支持更復雜的任務 。 我覺得這兩個方向接下來會有更多的化學反應 , 共同提升完成復雜任務的能力上限 。
那最后我們來一個開放式展望 , 請各位用一個詞來描述接下來十二個月大模型發展的趨勢以及你的期望 。 這次我們先從黃超開始 。
黃超:十二個月在AI領域看起來好遙遠 , 真的不知道十二個月之后會發展成什么樣子 。
楊植麟(主持人):這里原來寫的是五年 , 我給改成十二個月了 。
黃超:對 , 我這邊的關鍵詞應該是生態 。 未來agent要真正從個人助手轉化為打工人 , 這一步很重要 。 現在大家玩agent很多時候還停留在新鮮感階段 , 覺得好玩 , 但未來真正要讓agent沉淀下來 , 成為大家真正的搬磚工具 , 或者說真正的co-worker 。 這需要整個生態的共同努力 , 把所有相關的技術探索和模型技術都開源出來 , 不管是模型迭代、skill平臺迭代還是各類工具 , 都需要面向agent打造更好的生態 。
從我自己的感受來說 , 未來的很多軟件可能不再是面向人類的 。 人類需要GUI , 但很多軟件可能會是面向agent原生設計的 , 人類只會去使用讓自己快樂的GUI , 其他的交給agent 。 所以現在整個生態從GUI、MCP又轉向了CLI這樣的模式 。 我覺得需要整個生態把不管是軟件系統、數據還是各種技術 , 都變成Agent Native的模式 , 這樣才能讓整個agent的發展更加豐富 。
羅福莉:我覺得把這個問題縮小到一年非常有意義 , 因為五年這個時間跨度 , 從我心目中對AGI的定義來看 , 我覺得已經實現了 。 所以如果要用一個詞來描述接下來一年AGI歷程里最關鍵的事情 , 我認為會是自進化 。 這個詞雖然聽起來有點玄幻 , 過去一年大家也多次提到 , 但我最近才對它有了更深的體會 , 也對如何具體落地這件事有了更務實可行的方案 。
借助非常強大的模型 , 我們在過去chat范式下其實根本沒有發揮出預訓練模型的上限 , 而這個上限現在被agent框架激活了 。 我們現在觸到了一個現象 , 當模型執行更長時間的任務時 , 它可以自己去學習和進化 。 一個很簡單的嘗試是 , 在現有的agent框架里疊加一個可以verify的條件約束 , 再設置一個loop , 讓模型持續迭代優化目標 , 我們就能發現模型會持續拿出更好的方案 。 這種自進化現在已經能跑一兩天了 , 國內的模型基本上能支撐 , 當然和任務難度有關 。 我們發現在一些科學研究上 , 比如去探索更好的模型結構 , 因為有評估標準 , 比如更低的PPL , 在這類目標明確的任務上 , 模型已經能自主運行和執行兩三天了 。
從我的角度看 , 自進化是唯一能創造出新東西的地方 , 它不是去替代我們人類現有的生產力 , 而是像頂尖科學家一樣去探索這個世界上還沒有的東西 。 一年前我會覺得這個時間歷程需要三到五年 , 但就在最近 , 我覺得這個時間線應該縮短到一兩年 , 大模型疊加一個非常強的自進化agent框架 , 至少能實現對科學研究的指數級加速 。 我們組內做大模型研究的同學 , workflow高度不確定且需要大量創造力 , 但借助頂尖模型 , 基本上已經能把我們自己的研究效率加速近十倍了 。 我很期待這樣的范式輻射到更廣泛的學科和領域 。
夏立雪:我的關鍵詞叫可持續token 。 我看到整個AI的發展仍然處于長期持續的過程中 , 我們也希望它能有長久的生命力 。 從基礎設施的視角來看 , 我們面臨的一個很大問題是資源終究是有限的 , 就像當年我們講可持續發展一樣 。 我們作為一個token工廠 , 能否給大家提供持續穩定、大規??捎玫膖oken , 讓頂尖的模型真正能夠繼續服務更多的下游 , 是我們看到的一個非常重要的問題 。
所以我們現在需要把視角放寬到整個生態 , 從最早的能源到算力 , 再到token , 最終轉換成GDP , 讓這條鏈路能夠進行持續的經濟化迭代 。 我們不只是把國內的算力用起來 , 也在把這些能力輸出到海外 , 讓全球的資源能夠打通整合 。 所以我認為可持續這個詞 , 也包含了我們想把中國特色的token經濟學做起來的愿望 。 過去那個時代叫Made in China , 我們把低價的制造能力轉化成好的商品輸出到全球 。 現在我們想做的有點像AI Made in China , 把中國在能源上的優勢 , 通過token工廠可持續地轉化為優質的token輸出到全球 , 成為世界的token工廠 。 這是我希望在今年看到的 , 中國為世界人工智能帶來的價值 。
張鵬:我就簡短一點 , 大家都在仰望星空 , 我就落地一點 。 未來十二個月面臨的最大問題 , 我覺得可能就是算力 。 剛才也說了 , 所有的技術 , 包括智能體框架 , 讓很多人創造力爆發、效率提升十倍 , 但前提條件是大家用得起、用得起來 。 不能因為算力不夠 , 一個問題提出去讓它思考半天都得不到答案 , 這肯定不行 。 也正是因為這樣的原因 , 我們很多研究進展和想要做的事情其實都受阻了 。 前兩年記得中關村論壇有人提過這么一句話 , 叫沒卡沒感情 , 談卡傷感情 。 今天又回到了這個處境 , 但情況又不一樣了 , 我們現在轉向推理階段 , 是因為需求真的在爆發 , 十倍百倍地爆發 。 剛才也說到過去增長了十倍 , 背后其實是一百倍的需求 , 還有大量的需求沒有被滿足 , 這需要大家一起來想辦法 。
楊植麟(主持人):好 , 感謝各位的精彩分享 , 謝謝大家 。
最后 , 這兩天海淀五道口的AI原點社區也在舉辦原點Party Nights活動 , 有興趣的可以去玩玩 , 說不定咱們還能一起面個基
。
以上 , 既然看到這里了 , 如果覺得不錯 , 隨手點個贊、在看、轉發三連吧 , 如果想第一時間收到推送 , 也可以給我個星標?~謝謝你看我的文章 , 我們 , 下次再見 。
/ 作者:卡茲克 , tashi
【楊植麟、張鵬、羅福莉等齊聚一堂,他們關于OpenClaw的觀點值得一聽?!?/strong>/ 投稿或爆料 , 請聯系郵箱:wzglyay@virxact.com

    推薦閱讀