
文章圖片
文|王方玉
編輯|蘇建勛
7月26號 , 世界人工智能大會WAIC的開幕主論壇上 , 多位AI行業的頂級大咖出席并發表演講 , 為與會者烹飪了一道學術大餐 。
“深度學習教父”、圖靈獎、諾貝爾獎得主杰弗里·辛頓(Geoffrey Hinton)是最受關注的演講者 , 他真人出席 , 發表了名為《數字智能是否會取代生物智能?》的演講 。 這也是他在中國的首次公開演講 。
大會前夕 , 辛頓和全球20位人工智能領域的頂級專家 , 剛剛在上海簽完人工智能安全的“上海共識” 。 他的大會發言 , 同樣也圍繞人工智能安全為核心 。
辛頓首先回顧了從早期模型到現代大語言模型的發展歷程 , 并指出大語言模型已經實現了對語言理解的深度模仿 , 這與人類理解語言的方式是相似的 。
但不同的是 , AI系統具有“永生性” , 且機器之間知識的復制可以在極大規模下進行 , 實現指數級的知識轉移 。 因此AI的能力正在快速增長 。
他由此提出疑問 , 如果未來AI比人更智能會怎么樣?“如果AI足夠聰明 , 它會通過操縱人類、獲得控制權等方式來避免被關閉 。 ”
因此 , 辛頓警示了人工智能超越人類智能的可能性及其帶來的風險 。 “從長遠來看 , 這是人類面臨的最重要問題之一 。 ”
辛頓提醒 , AI可能發展出比人類更高級的智能 , 這將改變人類作為最智能生物的地位 。 AI智能體可能追求生存和控制力 , 這可能導致它們操縱人類 , 就像成年人操縱三歲孩童一樣 。 因此 , 人類必須找到方法來訓練AI , 確保其不會對人類構成威脅 。
與辛頓的發言主題不同 , 作為AI創業者 , MINIMAX創始人、首席執行官閆俊杰的發言更多圍繞AI大模型的實踐和落地 , 主題是《每個人的人工智能》 。
閆俊杰以AI在數據分析、信息追蹤、創意設計及視頻制作等方面的高效應用舉例 , 指出了人工智能不僅是一種強大的生產力 , 也是對個人能力和社會能力的一個持續增強 , 并且未來AI大模型成本將越來越低 , 能力越來越強 。
他判斷 , AI大模型不會被一家或者多家組織壟斷 。 未來AGI一定會實現 , 并且將會是服務大眾、普惠大眾的一件事 。
“如果有一天AGI實現了 , 我認為實現過程一定是需要AI公司和它的用戶一起來實現的 。 并且AI模型或者AGI(的所有權)應該屬于AI公司和它的廣泛用戶 , 而不是只屬于單個組織某家公司 。 ”
以下是經智能涌現編輯的嘉賓發言實錄:
諾貝爾獎、圖靈獎得主、多倫多大學計算機科學名譽教授 Geoffrey Hinton: 數字智能是否會取代生物智能?從大約60年前開始 , AI就發展出了兩種不同的范式 。 一種是「符號主義」路徑 , 強調邏輯推理的能力 。 我們通過規則操作符號來進行推理 , 這種方式可以幫助我們理解知識是如何被表達與處理的 。 這類AI模型的基礎是對符號的處理 , 被認為更符合邏輯智能的本質 。
另一種路徑則以生物智能為基礎 , 是圖靈與馮·諾依曼更傾向相信的方式 。 他們認為智能的本質在于從神經連接中學習 , 在于速度、結構和連接模式的改變 。 這種「連接主義」強調的是學習與適應 , 而非顯式的邏輯規則 。
1985年 , 我曾構建過一個非常小的模型 , 試圖將這兩種理論結合起來 。 我的想法是:每一個詞都可以由多個特征(features)表示 , 而這些特征之間可以被用來預測下一個詞 。 這個模型不存儲完整的句子 , 而是通過生成語言來學習詞匯之間的關系 。
這種方式強調語言中的「語義特征」——也就是說 , 我們并不是僅僅靠規則 , 而是通過「理解」詞匯的語義來進行預測 。 這為后來計算語言學界接受特征表示打下了基礎 。 二十年后 , 這種思想得到了進一步發展 , 例如被用于構建更大規模的自然語言處理系統 。
如果問未來30年會發生什么 , 從發展軌跡能看到一些趨勢 。 十年后 , 有人沿用這種建模模式 , 但將規模大幅擴大 , 使其成為自然語言的真實模擬 。 20年后 , 計算語言學家開始接受用特征向量嵌入來表達語義 。 又過了30年 , 谷歌發明了 Transformer , OpenAI的研究人員也向人們展示了它的能力 。
所以我認為 , 如今的大語言模型就是我當年微型語言模型的“后代” 。 它們使用更多詞作為輸入 , 采用更多層的神經元結構 , 由于需要處理大量模糊數字 , 學習特征之間也建立了更復雜的交互模式 。 但和我做的小模型一樣 , 大語言模型理解語言的方式與人類相似——基本邏輯是將語言轉化為特征 , 再以完美的方式整合這些特征 , 這正是大語言模型各層級所做的工作 。 因此我認為 , 大語言模型和人類理解語言的方式相同 。
用樂高積木來打比方或許能更好地解釋“理解一句話”的含義 。 符號型AI是將內容轉化為清晰的符號 , 但人類并非如此理解 。 樂高積木能拼出任何3D造型 , 比如小車模型 。 如果把每個詞看作多維度的樂高積木(可能有幾千個維度) , 語言就成了一種建模工具 , 能隨時與人溝通 , 只要給這些“積木”命名——每個“積木”就是一個詞 。
不過 , 詞和樂高積木有很多不同:詞的符號形態可根據情況調整 , 而樂高積木造型固定;樂高積木的拼接是固定的(比如正方形積木插入正方形孔洞) , 但語言中每個詞仿佛有多個“手臂” , 要通過合適的“握手”方式與其他詞互動 , 詞的“造型”變化 , “握手”方式也會改變 。
當一個詞的“造型”(即意思)改變 , 它與下一個詞的“握手”方式就會不同 , 進而產生新的含義 。 這就是人腦或神經網絡理解語義的根本邏輯 , 類似蛋白質通過氨基酸的不同組合形成有意義的結構 。
所以我認為 , 人類理解語言的方式與大語言模型幾乎一致 , 人類甚至可能和大語言模型一樣產生“幻覺” , 因為我們也會創造出一些虛構的表達 。
圖源:企業授權
軟件中的知識是永恒的 , 即便存儲LLM的硬件被摧毀 , 只要軟件存在 , 就能隨時“復活” 。 但要實現這種“永生” , 晶體管需在高功率下運行以產生可靠的二進制行為 , 這個過程成本很高 , 且無法利用硬件中不穩定的類似特性——它們是模擬型的 , 每次計算結果都不同 。 人腦也是模擬型而非數字型的 , 神經元每次激發的過程都一樣 , 但每個人的神經元連接方式不同 , 我無法將自己的神經結構轉移到他人腦中 , 這就導致知識在人腦間的傳播效率遠低于在硬件中的傳播 。
軟件與硬件無關 , 因此能“永生” , 還能帶來低功耗優勢——人腦只需30瓦特就能運轉 。 我們的神經元連接達數萬億個 , 無需花費大量資金制造完全相同的硬件 。 但問題在于 , 模擬模型間的知識轉移效率極低 , 我無法直接將腦中的知識展示給他人 。
Deepseek的做法是將大神經網絡的知識轉移到小神經網絡中 , 即“蒸餾” , 類似教師與學生的關系:教師將詞語在上下文中的關聯教給學生 , 學生通過調整權重學會表達 。 但這種方式效率很低 , 一句話通常只有100個比特的信息 , 即便全被理解 , 每秒最多也只能傳遞約100個比特 。
而數字智能間的知識轉移效率極高 , 同一神經網絡軟件的多個拷貝在不同硬件上運行時 , 能通過平均化比特的方式分享知識 。 如果智能體在現實世界中運行 , 這種優勢更明顯——它們能不斷加速、拷貝 , 多個智能體比單個智能體學得更多 , 還能分享權重 , 這是模擬硬件或軟件做不到的 。
生物計算功耗低 , 但知識分享難 。 如果能源和計算成本低廉 , 情況會好很多 , 但這也讓我感到擔憂——幾乎所有專家都認為 , 我們會創造出比人類更智能的 AI 。 人類習慣了作為最智能的生物 , 很難想象AI超越人類的場景 。 其實可以換個角度:就像養雞場的雞無法理解人類一樣 , 我們創造的AI智能體已能幫我們完成任務 , 它們能拷貝自身、評估子目標 , 還會為了生存和完成目標而尋求更多控制權 。
有人認為可以在AI變得過強時關掉它們 , 但這并不現實 。 它們可能會像成年人操縱3歲孩子一樣操縱人類 , 勸說控制機器的人不要關閉它們 。 這就像把老虎當寵物 , 幼虎很可愛 , 但長大后可能傷人 , 而養老虎當寵物通常不是好主意 。
面對AI , 我們只有兩個選擇:要么訓練它永遠不傷害人類 , 要么“消滅”它 。 但AI在醫療、教育、氣候變化、新材料等領域作用巨大 , 能提升所有行業的效率 , 我們無法消除它——即便一個國家放棄AI , 其他國家也不會 。 因此 , 若想讓人類生存 , 必須找到訓練AI不傷害人類的方法 。
我個人認為 , 各國在網絡攻擊、致命武器、虛假信息操縱等領域的合作難度較大 , 因利益和看法不同 。 但在“人類掌控世界”這一目標上 , 各國存在共識:若有國家找到防止AI操控世界的方法 , 一定會愿意分享 。 因此我提議 , 全球主要國家或AI大國應建立一個由AI安全機構組成的國際社群 , 研究如何訓練高智能AI向善——這與訓練AI變得聰明的技術不同 。 各國可在自身主權范圍內研究 , 再分享成果 。 盡管目前還不知道具體怎么做 , 但這是人類長期面臨的最重要問題 , 且所有國家都能在此領域合作 。
MINIMAX創始人、首席執行 閆俊杰: 每個人的人工智能大家好 , 我給大家分享的題目是《每個人的AI , Everyone’s AI》 。 講這個題目 , 跟我個人過去經歷有關 。 當Hinton先生開始設計AlexNet之時 , 我是國內第一批從事深度學習研究的博士生;當AlphaGo人機大戰上演 , 也是人工智能走進所有人視野之時 , 我在參與一家創業公司;而當ChatGPT出來的前一年 , 我們開始創立MiniMax , 也是國內第一批大模型公司 。
在過去的15年里 , 當我每天面對任務寫代碼 , 看論文做實驗的時候 , 一直都在想一件事:如此受關注的人工智能到底是什么?人工智能跟這個社會到底有什么樣的聯系?
隨著我們模型變得越來越好 , 我們發現人工智能正逐步成為社會的生產力 。 比如 , 我們在做人工智能研究的時候 , 每天需要分析大量的數據 , 一開始我們需要來寫一些軟件來分析這些數據 , 后續我們發現其實可以讓AI來生成一個軟件 , 來幫助分析所有數據 。 作為一個研究員 , 我非常關心每天AI領域的所有進展 , 一開始我們設想 , 是不是可以做一款APP , 來幫我們追蹤各領域的進展?后面我們發現 , 這件事也不需要自己來做 , 讓一個AI Agent來自動跟蹤更加高效 。
AI是更強的生產力 , 也是越來越強的創意 。 比如 , 15年前上海舉辦世博會的時候 , 有一個非常火爆的吉祥物叫“海寶” 。 過去15年 , 上海有了全方位的發展 , 我們如果想繼續用“海寶”IP生成一系列更具上海特色 , 符合時下潮流的衍生形象時 , AI可以做得更好 。 正如現場屏幕展示的 , 徐匯書院×海寶、武康大樓×海寶 , AI能一鍵直出 , 幫我們生成各種各樣的創意形象 。
再比如最近非常火的Labubu , 此前制作一個Labubu創意視頻 , 可能需要兩個月 , 花費大約幾十甚至百萬人民幣 。 通過越來越強的AI視頻模型 , 像大屏幕右邊展示的Labubu視頻 , 基本一天時間就可以生成出來 , 成本只有幾百塊錢 。
過去六個月 , 我們的視頻模型海螺(Hailuo)已經在全世界生成超過3億個視頻 。 通過高質量的AI模型 , 互聯網上的大部分內容與創意會變得越來越普及 , 低門檻讓每個人的創意得以充分發揮 。
除了釋放生產力與創意之外 , 我們發現 , AI的使用其實已經超出最初的的設計與預期 , 各種各樣想象不到的應用場景正在發生;比如解析一個古文字、模擬一次飛行、設計一個天文望遠鏡……這樣意想不到的場景 , 隨著模型能力越來越強 , 變得越來越可行;僅僅需要少量協作 , 就可以增強每個人的創意 。
面對這么多變化 , 一個想法開始在我的心里涌現出來:作為一個AI創業者 , AI 公司并不是重新復制一個互聯網公司 , AI是一個更基礎更根本的生產力 , 是對個人能力和社會能力的持續增強 。 這里有兩點比較關鍵:第一、AI是一種能力 , 第二是AI是可持續的 。
人類很難突破生物定律 , 永不停歇學習新知識 , 持續變聰明 , 而AI可以 。 當我們在建造更好的AI模型時 , 我們也發現 , AI也在和我們人類一起進步 , 一起做出來更好的AI 。 就在我們公司內部 , 員工每天需要寫很多代碼 , 做很多研究型實驗 , 這里邊大概有70%的代碼是AI來寫 , 90%數據分析是靠AI來做 。
圖源:企業授權
AI怎么能變得越來越專業?大約在一年前 , 當時訓練模型還需要大量的基礎標注工作 , 標注員是一個不可或缺的工種 。 而今年 , 當AI能力變得越來越強的時候 , 大量機械的標注工作被專業AI完成 , 標注員則可以專注于更有價值的專家型工作 , 一起幫助模型變得更好 。 標注工作也不再是簡單給AI一個答案 , 而是教會AI思考的過程 , 讓AI來學習人類的思考過程 , 從而使AI能力變得更加泛化 , 越來越接近人類頂尖專家的水平 。
除了通過專家來教AI之外 , 還有另外一種進步 , 就是在環境中大量學習 。 在過去半年 , 通過各種環境 , 從編程IDE , 到Agent環境 , 再到游戲沙盒 , 當我們把AI放到一個能夠持續提供可驗證的獎勵環境中學習 , 只要這個環境可以被定義出來 , 有明確的獎勵信號 , AI就可以把問題給解決 。 這個強化學習也變得可持續 , 規模越來越大 。
基于上面的原因 , 我們非常確定AI會越來越強 , 并且可能是無止境地強 。
接下來出現的問題是 , AI這么強 , 對社會的影響越來越大 , 那么AI到底會不會被壟斷?它是會被掌握在一家組織里 , 還是掌握在多家組織里呢?
我們認為 , AI領域一定會有多個玩家持續存在 。 原因有三點:第一 , 我們目前用到的所有模型 , 都依賴對齊(Model Alignment) 。 很明顯 , 不同模型的對齊目標其實是不一樣的 , 比如有的模型對齊目標是一個靠譜的程序員 , 那么做 Agent就會特別的強;有的模型它對齊目標是與人的交互 , 那么它就會比較有情商 , 能夠做流暢的對話;有的模型可能會充滿想象力 。 不同的對齊目標反映了不同公司或者組織的價值觀 , 這些價值觀最終會導致模型的表現非常不一樣 , 也會使得不同的模型擁有各自的特點 , 并且長期存在 。
第二 , 我們在最近半年用的AI系統其實都已經不是單個模型了 , 而是一個多 Agent系統 , 里面涉及多個模型 , 不同的模型也可以使用不同的工具 , 通過這樣的方式讓AI智能水平越來越高 , 能夠解決越來越復雜的問題 。 這個東西帶來的結果是 , 單一模型的優勢在這樣一個多Agent系統里逐漸變弱 。
第三 , 在過去半年 , 有很多非常智能的系統 , 都不是大公司所擁有的 。 背后的原因 , 是過去一年開源模型如雨后春筍般涌現 , 開源模型變得越來越有影響力 。 這張圖是過去一年比較受關注AI的排行榜 , 可以發現最好的模型還是閉源的 , 但最好的開源模型越來越多 , 同時也在不斷逼近最好的閉源模型 。
基于這三點原因 , 我們認為 , AI一定會被掌握在多家公司的手中 。
與此同時 , 我們認為AI一定會變得越來越普惠 , 使用成本也會變得更加可控 。
在過去一年半 , AI模型的大小沒有發生特別大的變化 , 即便我們可使用算力更多了 。 為什么呢?對所有實用模型而言 , 計算速度是一個比較關鍵的因素 。 如果模型計算速度特別慢 , 就會降低用戶的使用意愿 , 所以所有公司都關注模型的參數量和智能水平之間的平衡 。
此前 , 模型大小增長和芯片的進步速度基本上是成正比的 。 我們知道芯片的進步速度是每18個月會翻一倍 , 模型也會相應保持這樣的增長趨勢 。 而現在 , 雖然大家都有更多的算力了 , 模型參數卻沒有變得更大 。 那這些增長的算力花在哪呢?
首先說訓練 , 規模增長的速度在過去半年已經變得比較緩慢 , 訓練單個模型的成本實際上卻沒有顯著增加 。 這些算力花在做更多的研究跟探索上 。 而我們知道研究和探索 , 除了取決于算力之外 , 還取決于高效的整體實驗設計 , 高效的研發團隊 , 以及一些天才的創意 。 結果是 , 擁有非常多算力的公司和沒擁有那么多算力的公司 , 在訓練上其實的差異可能不會那么大 。 沒有那么多算力的公司 , 可以通過持續提升自己的實驗設計、提升思考能力和組織形式 , 讓實驗探索變得更加高效 。
再說推理 , 在過去一年 , 最好模型的推理成本其實是降了一個數量級 , 通過大量的計算網絡系統和優化算法 , 我們認為在接下來一兩年之內 , 最好模型的推理成本可能還能再降低一個數量級 。 總結而言 , 我們認為訓練單個模型的成本不會顯著地增加 。
我們認為 , 大量創新能讓AI研發變成一個沒有那么燒錢的行業 , 但是算力使用還會增加 。 盡管Token會變得很便宜 , 但是使用Token的數量會顯著增加 。 去年ChatBot單個對話只要消耗幾千個Token , 現在Agent單個對話可能消耗幾百萬個Token , 并且因為AI解決的問題越來越復雜 , 越來越實用 , 那么用的人也會越來越多 。
讓每個人都用得起AI , 這是我們對AI發展的判斷 。 Intelligence with Everyone , 這也是我們創業的初衷 。 我們認為AGI一定會實現 , 并且一定會服務大眾、普惠大眾 。
如果有一天AGI實現了 , 其過程一定是由AI公司和它的用戶一起來實現 , 并且這個AGI應該屬于多家AI公司和它的廣泛用戶 , 而不是只屬于單個組織某家公司 。
【辛頓、閆俊杰WAIC完整演講:一個預警,一個擁抱】我們也愿意長期為這個目標而奮斗 。 感謝大家!
推薦閱讀
- WAIC 2025︱中國電信AI科技范兒圈粉全場 智慧車、“鋼鐵俠”硬核應用成焦點
- 專業學習、興趣拓展全拿捏!開學煥新季華為筆記本怎么選最合適?
- 此芯科技參展WAIC,一口氣曬出三大計算平臺,從AI PC、邊緣到汽車
- 銀河邊緣:“智能控制場景芯片”供應商,賦能家電、工業互聯網
- 巨霖科技:提供從芯片、封裝到系統的EDA仿真簽核方案
- WAIC 2025 杰弗里?辛頓:是否數字智能會取代生物智能?
- NVIDIA N1X處理器GPU規格、跑分曝光:核心數與RTX 5070相同!
- 拔掉K40釘子戶!紅米K80打骨折,質感、續航、性能等內容全面碾壓
- 三星傳出“雙機”消息:三折疊屏、S26 Ultra,均在路上!
- 買了新SD卡、U盤或SSD?以下4種方法助你在使用前檢測真偽
