DeepMind之父驚人自白:我造的AI可能滅絕人類,但已無人能停下

DeepMind之父驚人自白:我造的AI可能滅絕人類,但已無人能停下

文章圖片

DeepMind之父驚人自白:我造的AI可能滅絕人類,但已無人能停下

文章圖片

DeepMind之父驚人自白:我造的AI可能滅絕人類,但已無人能停下

文章圖片

DeepMind之父驚人自白:我造的AI可能滅絕人類,但已無人能停下

文章圖片

DeepMind之父驚人自白:我造的AI可能滅絕人類,但已無人能停下

文章圖片

編輯:KingHZ
【DeepMind之父驚人自白:我造的AI可能滅絕人類,但已無人能停下】【新智元導讀】從攔截彼得·蒂爾、警告馬斯克 , 到如今公開說「必須有適應能力」 , 哈薩比斯史詩級轉身:AI安全窗口正在永久關閉 , 他不再幻想制度 , 而是賭上全部身家——賭影響力 , 賭良知 , 賭自己 。
最怕AI毀滅人類的人 , 正在拼命造AI!
最相信治理的人 , 如今親口承認:治理徹底靠不?。 ?
最強調安全的DeepMind , 也被拖入戰時軍備競賽!
就在幾小時前 ,DeepMind創始人Demis Hassabis哈薩比斯自己親手砸碎了AI安全幻想 , 從理想主義者徹底轉向現實派 。

他承認:超級智能可能滅絕人類 , 卻只能靠自己「搶座上桌」來護航 。
哈薩比斯 , 這個曾發誓要用嚴密的制度、法律約束和倫理委員會將AI鎖進籠子里的人 , 坐在那個破舊的吊燈下 , 無奈承認:
「安全不再取決于治理結構 。 即便有董事會 , 在關鍵時刻 , 他們也未必會做對的事 。 」
他轉而提出了一個極具現實主義、甚至帶有些許悲劇色彩的新方案:「我必須坐上桌 , 爭取影響力 。 」

幻想再三破滅 , 哈薩比斯轉身
哈薩比斯不是普通加速派 。
一般而言 , AI領袖通常分為兩派:一派是以OpenAI奧特曼為代表的「加速主義者」 , 相信技術總能解決技術帶來的問題;另一派是憂心忡忡的「末日預言家」 , 認為AI可能像核武器一樣導致人類滅絕 。
但哈薩比斯是一個極其復雜的矛盾體:他是為了阻止末日 , 才決定親手制造AI 。
這種近乎悖論的動力源于他極度深邃的焦慮 。
哈薩比斯對「AI滅絕風險」了如指掌 , 熟悉程度甚至超過了最激進的抗議者 。
他和DeepMind的另一位聯創Shane Legg , 就在一次AI安全的講座上相識 。

目前 , Shane Legg任谷歌DeepMind的首席AGI科學家 , 擔任AGI安全委員會聯席主席 , 同時也領隊研究后AGI時代的世界可能是什么樣子 。
在「奇點峰會」上 , 他曾攔截彼得·蒂爾(Peter Thiel) , 向他兜售關于機器如何超越人類的幻象 。
他曾當面告訴馬斯克 , 殖民火星毫無意義 , 因為如果超級智能是惡意的 , 它同樣能造出橫跨星際的火箭 , 火星絕不是人類的避難所 。
這種焦慮催生了他早期極具英雄主義色彩的「單體治理」(Singleton Scenario)構想——
他曾嚴肅地計劃 , 帶著全球最頂尖的科學家 , 躲進一個秘密的「地堡」——可能是摩洛哥的沙漠 , 也可能是某個與世隔絕的孤島 。
在那里 , 他們將像開發曼哈頓計劃一樣 , 在沒有資本壓力、沒有地緣競爭、沒有世俗干擾的情況下 , 代表全人類開發出第一個「絕對安全」的超級智能 。

哈薩比斯被馬斯克背刺?
「只要這個世界上只有一只手握著火種 , 我們就還能控制火勢 。 」 這是哈薩比斯最初的邏輯 。
為了這個邏輯 , 他在2014年將DeepMind賣給谷歌時 , 開出了歷史上最奇葩的收購條件:

  • 即使谷歌付了錢 , 哈薩比斯依然要在AI安全事務上保持絕對的獨立;
  • 設立一個由獨立專家組成的外部委員會來監督整個進程;
  • AI的軍事應用將被嚴格禁止 。
從少年時代起 , 哈薩比斯就立志要構建強AI 。 而只有確保其安全性 , 他才能為畢生的事業找到正當理由 。
谷歌收購前不久 , 哈薩比斯曾提醒DeepMind的研究員候選人 , 如果簽約加入 , 就要做好心理準備——最終的終局之戰來臨時 , 他會進入一個地下基地 , 實現單體治理的壯舉 。
2015年 , 為了落實谷歌承諾設立的AI監督委員會 , DeepMind組織了一場秘密集會 , 邀請了哲學家和技術專家參加 。
哈薩比斯邀請馬斯克主持集會 , 地點設在馬斯克的SpaceX加州總部 。

但這一招適得其反 。 這次集會 , 標志著哈薩比斯的安全構想開始瓦解 。
馬斯克聽取了哈薩比斯及其聯合創始人的演示 , 隨后反其道而行之 。 他與奧特曼聯手創立了OpenAI 。
那一刻 , 哈薩比斯的安全烏托邦就開始死了 。

失了里子 , 還丟面子了
考慮到人性 , 這種局面不可避免 。 面對鉆木取火般史詩級的AI技術前景 , 人們并不會凝聚成一個單一的集體 。 他們爭論不休、相互嫉妒、各自為營 。
此時 , 哈薩比斯本可以停下來重新思考 。
如果「單一主體」的設想過于天真 , AI開發者又如何避免一場沖向懸崖的競賽?
但哈薩比斯非但沒有停下腳步 , 反而加速前進 。 2016年 , AlphaGo橫空出世 。 機器智能超越人類智力的時間表 , 一下子提前了 。
為了跟上AI這一進展 , 哈薩比斯提出了新的想法 , 希望讓AI服務于人類 。 他與聯合創始人穆斯塔法·蘇萊曼一起 , 著手與谷歌談判 , 尋求建立一套新的治理保障機制 。
為了推進這個秘密的「馬里奧計劃」(Project Mario) , 他聘請了一支頂尖的法律團隊 , 獲得了外部10億美元的資金承諾 , 并考慮如果無法獲得對技術的控制權 , 就讓DeepMind從谷歌獨立出去 。
與此同時 , 蘇萊曼還帶領DeepMind團隊參與了一項幫助英國國家級的急性腎病管理項目 。
如果能實現AI的獨立治理 , 又能改善普通英國民眾的健康狀況 , 哈薩比斯或許就能確信 , 自己的追求確實是向善的 。
然而 , 這兩項努力均以失敗告終 。
與谷歌圍繞治理權的拉鋸戰持續了三年 , 困難重重 。
而幫助英國國家醫療服務體系的項目 , 則遭到了隱私保護倡導者的強烈反彈——他們憤怒于一家美國科技巨頭的子公司可能染指患者數據 。
到2019年 , 哈薩比斯和DeepMind在這兩條戰線上都已退卻 。 蘇萊曼最后也離開了DeepMind 。

ChatGPT致命一擊 , 谷歌AI狂飆
2022年 , ChatGPT的爆發 , 像一顆核彈丟進了哈薩比斯的辦公室 。
在此之前 , 哈薩比斯還試圖維持「科學家的優雅」 。
他帶領團隊開發AlphaFold , 破解蛋白質折疊難題 , 拿下了諾貝爾獎 。

他認為這是AI服務人類的最高境界:一種純粹的、造福醫療的、可控的科學 。
但市場不這么看 。 當ChatGPT成為歷史上增長最快的應用時 , 谷歌慌了 , 整個硅谷都瘋了 。
2022年 , ChatGPT爆火那天 , 哈薩比斯在內部定調:現在是戰爭狀態!
在這個狀態下 , 所有之前的安全承諾都變得脆弱不堪:
谷歌開始積極接觸國防部門 , 試圖將AI賣給五角大樓(曾是哈薩比斯的紅線) 。


在權力斗爭中 , 原本那個「獨立倫理委員會」幾乎隱形 。


為了追趕GPT-4 , DeepMind與谷歌大腦強行合并 , 速度取代了嚴謹 。
哈薩比斯看清了一個殘酷的現實:在AI競賽中 , 沒有一個非營利的制度能寄生在營利性巨頭的體內 。
當生存受到威脅 , 所有的倫理都是奢侈品 。

哈薩比斯親眼看著自己親手筑起來的所有墻 , 一堵一堵倒掉 。
他終于承認:「即使有治理委員會 , 關鍵時刻也可能做錯決定 。 」
真正失控的不是模型 , 而是人類競賽

孤獨的人類守望者
現在 , 哈薩比斯徹底轉向現實主義 。
他的目標 , 是爭取到「一張決策桌旁的席位 , 這樣當安全問題出現時」 , 他就能參與決定解決方案 。
「事情不是非黑即白的 , 尤其是當你面對一項后果未知的技術時 , 」他告訴記者 。 「所以你必須有適應能力 。 你不得不從理想主義者轉變為現實主義者 , 但希望依然能堅守自己的價值觀 。 」
哈薩比斯對「治理」的徹底祛魅 , 放棄了制度安全 , 改為靠個人影響力「搶座上桌」 。
一邊狂推AlphaFold拿諾貝爾獎、Gemini繼續沖鋒 , 一邊把希望死死攥在「有良知的人」手里 。
更狠的反轉來了:連馬斯克這種曾經最激進的安全派都開始狂踩油門 。
樂觀派還在喊「對齊技術能解決一切」 , 可哈薩比斯自己都不信了 。
制度徹底死了 。
OpenAI董事會罷免奧特曼 , 又瞬間被資本力量反殺 。
他選擇了最無奈的一條路:「讓自己成為權力的一部分 。 」
他現在的安全邏輯是:既然我無法阻止這場競賽 , 那我就必須贏得這場競賽 。 我必須留在牌桌上 , 我必須擁有最高的話語權 。
這樣 , 當真正的「奇點」來臨 , 當那個人類無法理解的決定需要被做出時 , 至少 , 坐在那個關鍵位置上的人 , 是一個從第一天起就對AI心存敬畏的哈薩比斯 。
他現在只能賭——賭「好人掌權」能救世界 。
可問題來了:如果AI安全只能靠「好人掌權」 , 到底是救贖 , 還是最危險的賭局?
AI安全窗口正在永久關閉 。
超級智能若對齊失敗 , 造的火箭、殖民的太空 , 都逃不掉滅頂之災 。
人類本性早已把統一治理變成永遠的笑話 。
唯一希望 , 只剩「有良知的人掌握話語權」這種最脆弱、最危險的方案 。
哈薩比斯不是唯一改變的人 , 他只是第一個把殘酷現實說透的人 。
現在 , 第37手棋 , 已經落在我們每個人頭上——
你我正在見證的 , 是一場文明豪賭 。

    推薦閱讀