“實現AGI仍需十年”:AI三大認知缺陷讓Karpathy重估了技術進度

“實現AGI仍需十年”:AI三大認知缺陷讓Karpathy重估了技術進度

文章圖片


在“AGI 近在咫尺”的熱潮中 , 這位 AI 領域的核心人物選擇踩下了剎車 。 Andrej Karpathy , 曾任特斯拉 AI 總監、OpenAI 創始成員的硅谷頂尖技術專家 , 近日在 Dwarkesh Patel 的播客中發表了一場長達兩個多小時的深度對話 , 并在隨后發布的長文中系統闡述了他對人工智能發展的思考 。

從 AGI 時間表、強化學習的局限、智能體的真實能力 , 到教育與人類未來的圖景 , Karpathy 系統地提出了一個核心觀點:“AGI 仍需十年 。 但這是一個樂觀、但需要冷靜面對的十年 。 ”

他以自動駕駛的十年征途、代碼生成的缺陷、以及“無聲崩潰”的模型現象 , 為當前整個行業對未來的狂熱預期校準了表達方式 。


(來源:youtube @ Dwarkesh Patel)

近年來 , 隨著大型語言模型(LLM)能力的飛躍 , 從“AI 元年”到“AGI 元年”的口號不絕于耳 , 行業內的普遍預期似乎已將 AGI 的實現壓縮到了短短幾年之內 。 Karpathy 對此持有保留態度 。 他認為 , 當前行業中彌漫著過度預測的傾向 , 而這種過于激進的期待忽視了現實層面的復雜性和偶然性 。 他強調 , 更加準確的表述應該是我們正步入“智能體的十年(Decade of Agents)” 。

從業二十年的經驗告訴 Karpathy , 當前被寄予厚望 , 認為可以替代實習生、甚至是正式員工工作的的智能體 , 目前來說“根本還跑不通” 。 他指出了當前智能體存在的根本性認知缺陷(Cognitive Deficits)——缺乏真正的持續學習能力 。 也就是說 , 你無法真正教會它們某件事 , 它們的多模態能力仍處初級階段 。 在 Karpathy 看來 , 這些問題無疑是棘手的和困難的 , 但也是可以克服的 。 但解決這些問題 , 至少需要一個十年的尺度 。

但這并不代表 Karpathy 正在唱衰 AGI 的未來 , 相反 , 他想強調人類確實在過去幾年里取得了 LLM 帶來的驚人進展 , 但距離能在任意崗位上取代人類的通用智能 , 仍有漫長的系統集成與現實約束需要克服 , 包括對物理世界的感知、執行、社會協調、安全與防護等層面 。

Karpathy 的“十年之論”很大程度上源于他領導特斯拉自動駕駛五年的深刻教訓 。 他指出 , 自動駕駛領域存在一個巨大的演示(Demo)到產品(Product)的鴻溝 。 盡管在 1986 年就存在過卡車自動駕駛的演示 , Karpathy 本人在 2014 年體驗 Waymo 時 , 也獲得了近乎完美的駕駛體驗 , 但縱觀過去十年 , 自動駕駛行業仍步履蹣跚 。

Karpathy 使用了三個“九”來形容這一過程:實現 90% 的可靠性(第一個九)相對容易 , 但從 90% 到 99%(第二個九) , 再到 99.9%(第三個九) , “每增加一個九 , 都需要投入與之前同樣多的工作量” 。 在特斯拉的五年里 , 他們可能只推進了兩到三個“九” 。 相同的增長曲線也存在于 AI 智能體的發展中 , 尤其是涉及高風險的軟件工程領域 。 一個表現近乎完美的 AI 程序員 , 如果每七年(相當于自動駕駛的平均事故間隔)犯一個重大錯誤 , 就可能泄露數億人的社保號碼 , 其后果是災難性的 。

目前 , 行業對 AGI 路徑的最大賭注之一是“AI 自動化 AI 研究” , 即 AI 智能體通過編寫代碼實現遞歸式自我改進 。 然而 , Karpathy 以自己構建 nanochat(一個 ChatGPT 的極簡復刻版)的親身經歷 , 對此提出了反對意見 。 他發現 , 在編寫這種智力密集型的、非樣板化的新代碼時 , 現有的 AI 編程助手幾乎沒有幫助 。 他將當前的代碼 AI 斥為殘次品(Slop) 。

具體而言 , Karpathy 認為 AI 的認知缺陷表現在三個層面:

第一是無法理解“定制化”: 當 Karpathy 沒有使用 PyTorch 標準的 DDP(分布式數據并行)容器 , 而是編寫了自己的同步程序時 , AI 助手完全無法理解 , 并非常焦慮地試圖讓他用回標準庫;

第二是“臃腫與過時”:Karpathy 認為 , AI 助手傾向于過度防御 , 編寫大量“try-catch”語句 , 試圖構建生產級代碼庫 , 導致代碼臃腫 , 并且頻繁使用“已棄用的 API”;

第三是“高昂的溝通成本”:他發現用自然語言向 AI 解釋自己想要什么(Vibe Coding)效率極低 , 遠不如自己定位到代碼 , 輸入前幾個字母 , 讓自動補全來完成 。

一言以蔽之 , Karpathy 認為整個行業都高估了 AI 的自主性 。 他更認同于自動滑塊(Autonomy Slider)的比喻:AI 目前更像是一個更好的編譯器或語法高亮(highlight) , 而不是一個自主的程序員 。 人類正在緩慢地提升自己的抽象層次 , 但遠未到被取代的時刻 。

同時 , Karpathy 多次批評強化學習(RL) , 認為它是用吸管吸監督信號的低效方式 。 在他看來 , RL 的信號稀薄且嘈雜存在著錯誤答案可能被獎勵(誤打誤撞) , 和正確推理可能被懲罰(后續出錯)的情況 。 他看好的是新的學習范式 , 比如系統提示學習(System Prompt Learning)與基于智能體交互的學習(Agentic Interaction) 。

這些思路試圖讓模型通過持續交互和任務驅動形成學習閉環 , 而不是靠脆弱的獎勵函數 。

他認為 , ChatGPT 的記憶系統就是這種新型學習范式的早期原型 。

除此之外 , Karpathy 還提出了 Cognitive Core(認知核心)的概念 , 即通過剝離模型的記憶能力 , 讓它更好地泛化 。 他指出 , 人類記憶有限 , 反而形成了強大的抽象與推理能力;

而 LLM 記憶過多 , 傾向于復述 , 而非理解 。 因此 , 有意限制模型記憶 , 可能是一種“正則化” 。 他還提出 , 一個反直覺的趨勢是:“模型必須先變得更大 , 然后才能變得更小”——先獲得足夠的多樣性 , 再提煉出核心結構 。

對于業界最關心的AGI 是否會帶來經濟爆炸問題 , Karpathy 給出了最出人意料的答案:不會 。
【“實現AGI仍需十年”:AI三大認知缺陷讓Karpathy重估了技術進度】
他預測 , AGI 的到來 , 將平滑地“融入”過去數百年 2% 的 GDP 年增長曲線中 。 Karpathy 認為 , AI 并非一種全新的、能打破規律的技術 , 它從根本上是計算的延伸 。 縱觀歷史 , 無論是計算機的發明、互聯網的普及 , 還是 iPhone 的誕生 , 這些“革命性”技術都沒有在 GDP 曲線上造成一個突兀的“尖峰” 。 它們的影響是巨大的 , 但擴散是緩慢的、漸進的 , 最終都被平滑地吸收到 2% 的增長中 。

“我們已經處于一場智能爆炸中數十年了 , ”Karpathy 說 , “只是我們在以慢動作的方式經歷它” 。 從工業革命開始 , 自動化和遞歸式自我改進就一直在發生 。 編譯器是早期的軟件自動化 , Google 搜索、IDE , 乃至今日的 AI , 都只是這條平滑曲線上的最新一步 。 AGI 不會改變這條曲線的斜率 , 它只是“使我們能繼續保持在 2% 增長軌跡上”的原因 。


(來源:X @Andrej Karpathy)

在為行業的狂熱降溫后 , Karpathy 也分享了自己的下一步——創辦教育項目“Eureka” 。 他坦言 , 他最恐懼的未來不是 AGI 失控 , 而是《機器人總動員》(WALL-E)或《蠢蛋進化論》(Idiocracy)中的景象:人類被 AI 剝奪了權力 , 淪為無用的旁觀者 。

他將自己的項目比作“星際艦隊學院”(Starfleet Academy) , 一個旨在培養人類精英、駕馭前沿技術的機構 。 他認為 , 教育是一個構建知識坡道的、高難度的技術問題 。 Karpathy 描繪了一個“AGI 之后”的教育圖景 。 屆時 , 教育的目的不再是有用(為了賺錢) , 而是有趣(for fun) 。 他將其比作去健身房:現代人不需要強大的體力來搬運重物 , 但人們依然健身 , 因為它“有趣、健康 , 而且‘六塊腹肌’看起來很性感” 。

他相信 , 當 AI 消除了學習的“摩擦力”(那種因為太難或太簡單而“碰壁”的痛苦感) , 學習本身將成為一種樂趣和自我實現 。 在 Karpathy 的設想中 , 人類的未來不是被機器取代 , 而是借助技術 , 實現“超人化”的認知繁榮 。

參考資料:
1.https://www.dwarkesh.com/p/andrej-karpathy
2.https://x.com/karpathy/status/1979644538185752935

運營/排版:何晨龍

    推薦閱讀