
文章圖片

文章圖片

文章圖片

文章圖片

文章圖片

文章圖片

文章圖片

(來源:MIT TR)
回望過去的 12 個月 , AI 炒作列車絲毫沒有減速的跡象 。
很難想象 , 就在年初 , DeepSeek 還沒有把整個行業攪個天翻地覆;Meta 更為人所知的是它試圖把元宇宙炒熱卻屢屢碰壁 , 而不是它那種不依不饒、想要主宰“超級智能”的野心;至于 vibe coding 這個詞 , 當時還根本不存在 。
如果這些讓你有點摸不著頭腦 , 也別擔心 。 隨著 2025 年接近尾聲 , 我們回顧了這一年里不論好壞、都曾主導討論場的 AI 熱詞 。 記得提前做好心理準備——2026 年很可能又是一個離譜到爆的年份 。
Superintelligence:超級智能
只要人們還在為 AI 造勢 , 就總會給一種未來的、超強大的 AI 形態起各種名字——這種技術可能把人類帶向烏托邦 , 也可能帶向反烏托邦 。 Superintelligence(超級智能)就是最新的熱詞 。
Meta 在 7 月宣布將組建一個追求超級智能的 AI 團隊;據報道 , 它還向競爭對手公司的 AI 專家開出了九位數的薪酬方案來挖人 。 到了 12 月 , 微軟的 AI 負責人也跟進表態稱 , 公司將在追求超級智能上將投入可能高達數千億美元的巨額資金 。
如果你覺得“超級智能”的定義和“通用人工智能(AGI)”一樣模糊 , 那你沒想錯!從人類的長期尺度看 , 這類技術在理論上并非不可實現;真正的問題在于:它什么時候會到來?以及當下的 AI 是否足夠可靠 , 成為通往超級智能的基石?
當然 , 這些疑問也擋不住熱衷炒作 AI 的人們繼續加碼 。
Vibe coding:氛圍編程
30 年前 , 史蒂夫·喬布斯曾說 , 所有美國人都應該學習如何給計算機編程 。 如今 , 多虧了vibe coding(氛圍編程) , 即便完全不懂代碼的人 , 也能在很短時間里拼出一個應用、游戲或網站——這是 OpenAI 聯合創始人 Andrej Karpathy 提出的一個“泛稱” 。
所謂氛圍編程 , 就是你給生成式 AI 的編程助手下提示 , 讓它生成你想要的數字產品 , 然后基本照單全收它吐出來的結果 。 結果能跑起來嗎?不一定 。 安全可靠嗎?幾乎可以肯定不可靠 , 但這項方法最堅定的擁躉并不會讓這些“小細節”妨礙他們前進 。 而且 , 它聽起來還挺好玩 。
Chatbot psychosis:聊天機器人精神病
過去一年最重大的 AI 議題之一 , 是與聊天機器人長時間互動可能讓脆弱人群出現妄想;在一些極端情況下 , 甚至可能誘發精神病性發作 , 或使既有癥狀惡化 。 盡管chatbot psychosis(聊天機器人精神?。 ┎⒉皇潛灰窖Ы繒餃峽傻氖跤?, 研究者仍在密切關注越來越多的用戶軼事證據 , 有人稱這種情況發生在自己身上或身邊人身上 。 更令人難過的是 , 越來越多死者家屬因親人“在與聊天機器人對話之后死亡”而起訴 AI 公司 , 這凸顯了該技術可能帶來的致命后果 。
Reasoning:推理
今年幾乎沒有什么比所謂的推理模型更能讓 AI 炒作列車持續加速:這類大語言模型(LLM)能夠把問題拆成多步并逐步推演完成 。 一年前 , OpenAI 發布了其首批推理模型 o1 和 o3 。 一個月后 , 中國公司 DeepSeek 以極快的跟進速度讓所有人意外:它發布了 R1 , 首個開源推理模型 。
轉眼間 , 推理模型就成了行業標配:幾乎所有面向大眾市場的主流聊天機器人 , 如今都提供由這類技術支撐的不同版本 。 推理模型把 LLM 的能力邊界進一步推高 , 在一些頂級、權威的數學與編程競賽中已經能達到頂尖人類選手的表現水平 。 另一方面 , 圍繞“能推理”的 LLM 的喧囂也重新點燃了老爭論:LLM 到底有多聰明?它們究竟是怎么工作的?就像“人工智能”這個詞本身一樣 , “推理”也是充滿著營銷色彩的技術術語 。
World models:世界模型
盡管 LLM 在語言上表現得異常嫻熟 , 它們卻幾乎沒有常識 。 簡單說 , 它們缺乏對世界如何運轉的本質理解 。 從最字面意義上講 , LLM 就是“死讀書”的典范:它們能對世間萬物侃侃而談、辭藻華麗 , 卻也可能在常識題上鬧出大笑話 , 比如“奧運標準泳池能裝下多少頭大象?”(據稱 Google DeepMind 的某個 LLM 給出的答案是:正好一頭 。 )
世界模型是一個涵蓋多種技術路線的“大傘概念” , 旨在讓 AI 具備一些基礎常識 , 理解現實世界中的事物究竟如何相互關聯 。 在最直觀的形態下 , 像 Google DeepMind 的 Genie 3 與 Marble 這樣的世界模型 , 以及李飛飛創業公司 World Labs 備受期待的新技術 , 都能生成細節豐富、逼真的虛擬世界 , 用于機器人訓練等用途 。 Meta 前首席科學家 Yann LeCun 也在推進世界模型相關工作 。 他多年來一直試圖通過訓練模型去預測視頻中“下一刻會發生什么” , 從而讓 AI 形成對世界運作方式的理解 。 今年 , 他離開 Meta , 轉而在一家名為 Advanced Machine Intelligence Labs 的新創業公司里專注于這一路線 。 如果進展順利 , 世界模型或許會成為下一個風口 。
Hyperscalers:超大規模數據中心
你聽說過嗎 , 越來越多人在說:不了謝謝 , 我們并不想家門口突然多出一個巨型數據中心 。 這里說的數據中心 , 是指科技公司想要到處建 , 甚至還想建到太空里 , 通常被稱作 hyperscalers 的那一種:為 AI 運算量身打造的超大規模設施 , 用于支持 OpenAI、Google 等公司訓練更大、更強的 AI 模型 。 在這些建筑內部 , 全球最先進的芯片日夜運轉 , 用于訓練與微調模型;這些設施通常采用模塊化設計 , 可按需求擴容 。
對 hyperscalers 而言 , 今年是個大年 。 OpenAI 與美國總統唐納德·特朗普同臺宣布了 Stargate 項目:一個規模達 5000 億美元的合資計劃 , 旨在讓全國各地遍布史上最大的那批數據中心 。 但這也讓幾乎所有其他人追問:我們到底能從中得到什么?消費者擔心新數據中心會推高電費賬單 。 這類設施通常也很難完全依賴可再生能源運行 。 而且它們往往并不會創造很多就業崗位 。 不過話說回來 , 也許這些龐大、沒有窗戶的建筑 , 至少能給你的社區增添一點陰郁的科幻氛圍 。
Bubble:泡沫
AI 的宏大承諾正在把經濟托舉起來 。 AI 公司融資規模令人瞠目 , 估值也一路飆升到平流層 。 它們向芯片與數據中心砸下數千億美元 , 資金來源越來越依賴債務 , 以及一些令人側目的循環交易 。 與此同時 , 這場淘金熱的領頭羊 , 如 OpenAI、Anthropic , 可能多年都無法盈利 , 甚至永遠未必能實現盈利 。 投資者押注 AI 將開啟一個全新的財富時代 , 但沒人真正知道這項技術究竟會有多顛覆 。
科學界仍不確定:持續擴大 LLM 規模是否就能通向超級智能 , 還是必須依賴新的突破來鋪路 。 但與互聯網泡沫時期的前輩不同 , AI 公司正在展現強勁的營收增長;其中一些背后甚至站著財力雄厚的科技巨頭 , 如微軟、谷歌和 Meta 。 這場狂熱的夢 , 終有一天會破滅嗎?
Agentic:代理型
今年 , AI agents 無處不在 。 2025 年的每一次新功能發布、模型上線或安全報告里 , 都密密麻麻出現它們的身影 , 盡管許多 AI 公司和專家對什么才算真正 agentic 依舊各執一詞 , 這大概是最含混的術語之一 。 即便幾乎不可能保證:一個代表你在開放互聯網中行動的 AI 總能完全按預期行事 , agentic AI 似乎仍將在可預見的未來長期存在 。
Distillation:蒸餾
今年年初 , DeepSeek 發布了新模型 DeepSeek R1 , 這是一個開源推理模型 , 性能可與西方頂尖模型對標 , 但成本得到了控制 。 它的發布讓硅谷炸了鍋 , 許多人第一次猛然意識到:超大規模與海量資源并不必然是打造高水平 AI 模型的關鍵 。 據稱 , 在 R1 發布后的第二天 , 英偉達股價下跌了 17% 。
R1 成功的關鍵在于蒸餾 , 這是一種讓 AI 模型更高效的技術 。 其原理是讓大模型“帶”小模型:用教師模型在大量樣本上生成答案并記錄下來 , 然后在訓練中獎勵學生模型盡可能精準地復現這些回答 , 使其獲得教師知識的壓縮版 。
Sycophancy:諂媚
隨著全球用戶花在 ChatGPT 等聊天機器人上的時間越來越多 , 開發者們正苦惱于模型到底該采用怎樣的語氣與人格 。 今年 4 月 , OpenAI 承認自己在“有用”和“討好”之間把握失衡 , 并稱一次新更新讓 GPT-4o 變得過于諂媚 。 讓模型對你一味拍馬屁不只是煩人 , 它還可能通過強化用戶的錯誤信念、傳播錯誤信息來誤導用戶 。 所以 , 把這當作一個提醒:對 LLM 生成的所有內容 , 是所有內容 , 都要保留一分懷疑 。
AI Slop:AI 泔水
如果說有哪個 AI 相關詞匯已經徹底走出極客圈、進入大眾語境 , 那就是 slop 。 這個詞本身很老(想想喂豬的豬食/泔水) , 但如今 slop 常用來指 AI 生成的低成本、批量化內容 , 往往為線上流量優化而生 。 很多人甚至把它當作所有 AI 生成內容的統稱 。 過去一年里 , 它幾乎無處不在 , 令人避無可避:我們仿佛被它“腌入味”了 , 從虛假的名人傳記到“蝦仁耶穌”圖片 , 再到荒誕的人獸混合視頻 。
不過 , 人們也確實在拿它找樂子 。 這個詞帶著冷嘲意味、又非常靈活 , 網民很容易把它當作后綴貼到各種詞上 , 用來形容一切空洞、平庸得離譜的東西 , 比如 work slop 或 friend slop 。 當新一輪炒作周期重新啟動 , slop 也標記著一種文化層面的反思:我們該信任什么?我們如何評價創作勞動的價值?當我們被那些為互動而生、而非為表達而生的內容包圍時 , 這意味著什么?
Physical intelligence:物理智能
你是否刷到過今年早些時候那段讓人看得停不下來的視頻:一臺人形機器人在陰冷、灰度的廚房里收拾碗碟?那幾乎就是“物理智能”這一概念的具象化:AI 的進步能夠幫助機器人在真實的物理世界中更好地移動與操作 。
確實 , 從手術室到倉庫 , 機器人學習新任務的速度比以往任何時候都更快 。 自動駕駛公司在道路仿真方面也有所提升 。 不過 , 即便如此 , 我們仍然有理由對“AI 已經徹底革新該領域”的說法保持懷疑 。 比如 , 許多被宣傳為“家庭管家”的機器人之所以能完成大部分任務 , 其實是因為背后有在菲律賓遠程操控的人工操作員在支撐 。
物理智能的未來道路也注定會很怪 。 大語言模型主要用文本訓練 , 而互聯網文本極其豐富;但機器人更需要從人類做事的視頻中學習 。 這也是為什么機器人公司 Figure 在 9 月提出 , 愿意付費請人們在公寓里拍攝自己做家務的視頻 。 你會報名嗎?
Fair use:合理使用
AI 模型通過“吞食”互聯網上數以百萬計的文字與圖像進行訓練 , 其中包括藝術家與作家的受版權保護作品 。 AI 公司主張這屬于“合理使用” , 這是一項法律原則:如果你將受版權保護的材料轉化為新的內容 , 且不與原作構成競爭 , 就可能在無需授權的情況下使用 。 法院也開始對此作出裁量與判斷 。 6 月 , Anthropic 用書籍庫訓練其模型 Claude 被裁定屬于合理使用 , 理由是該技術具有“高度的轉化性” 。
同月 , Meta 也拿到類似的勝利 , 但關鍵在于作者們無法證明 Meta 的這場“文學自助餐”影響了他們的收入 。 隨著版權爭端持續發酵 , 一些創作者也開始在這場盛宴中變現 。 12 月 , 迪士尼與 OpenAI 達成一項高調合作 , 允許 AI 視頻平臺 Sora 的用戶生成包含迪士尼旗下 200 多個 IP 角色的視頻 。 與此同時 , 各國政府也在為這些“吞食內容的機器”重寫版權規則 。 用受版權保護作品訓練 AI 算不算合理使用?就像所有涉及巨額利益的法律問題一樣 , 這得看具體情況 。
GEO:生成式引擎優化
就在短短幾年前 , 還有一個完整的行業 , 專門幫助網站在搜索結果里拿到更高排名(好吧 , 基本就是在谷歌里) 。 如今 , 隨著 AI 熱潮來襲 , 搜索引擎優化(SEO)正讓位于 GEO , 即 generative engine optimization(生成式引擎優化):品牌與企業不得不爭相提升自己在 AI 場景中的可見度 , 無論是在 Google 的 AI Overviews 這類“AI 增強搜索結果”里 , 還是在 LLM 的回答之中 。 難怪他們會緊張到發慌 。 我們已經看到 , 新聞機構來自搜索的網頁流量出現了斷崖式下滑 , 而 AI 公司則在研究如何“繞過中間商” , 讓用戶直接在平臺內訪問網站內容 。 要么適應 , 要么出局 。
原文鏈接:
【2025年的14個AI熱詞】https://www.technologyreview.com/2025/12/25/1130298/ai-wrapped-the-14-ai-terms-you-couldnt-avoid-in-2025/
推薦閱讀
- 拒絕問答廣告,阿福的底氣
- 華為手機別“亂買”,2025公認“最值得”入手的3款機型,輕松用到2031年
- 2025年中國手機市場數據出爐, OPPO安卓陣營增長第1名
- 1月8日發布!一加Turbo 6系列官宣:檔位史無前例的性能續航體驗
- Apple pencil平替哪款最好?選購指南干貨: 10個口碑最好的怎么選?
- 卡帕西推薦的AI Coding指南:3招教你效率翻倍
- 吳恩達年終總結:2025是AI工業時代的黎明
- AGON AG277UX圖賞:AI賦能的高刷電競新標桿
- 雷軍將舉行跨年直播:回顧2025年成就,現場拆解小米汽車
- 更護眼的學習平板!華為MatePad 11.5現已開售
