楊立昆最新采訪:AI威脅論是胡說八道,堆砌芯片和數據不能實現AGI

楊立昆最新采訪:AI威脅論是胡說八道,堆砌芯片和數據不能實現AGI

文章圖片



編譯 |  吳浪娜
編輯 |  漠影
智東西10月12日消息 , 據《華爾街日報》今天報道 , 圖靈獎得主、Meta首席AI科學家楊立昆接受了該媒體的采訪 , 他認為許多專家夸大了AI的力量和危險 , 他希望人們了解這一點 。 在采訪中 , 他稱有關AI這項技術生存危機的警告“完全是胡說八道(that’s complete B.S.)” 。
楊立昆是引發當今的AI熱潮的重要人物之一 。 但當其他杰出的技術專家告訴我們 , 我們即將擁有超越人類智能的計算機 , 甚至人類可能被其取代時 , 楊立昆卻堅定地成為了AI熱潮中最有資歷的懷疑論者 。
在社交媒體、演講和辯論中 , 這位紐約大學教授兼Meta的人工智能大師與那些鼓吹生成式AI具有超人潛力的支持者和預言家們展開了爭論 , 包括埃隆·馬斯克(Elon Musk)和楊立昆的兩位同行先驅 。 杰弗里·辛頓(Geoffrey Hinton)和約書亞·本吉奧(Yoshua Bengio)與楊立昆一起擁有“AI教父”的非官方頭銜 , 其中辛頓是楊立昆近40年的朋友 , 在本周獲得了諾貝爾物理學獎 , 他曾多次就AI的生存威脅發出警告 。
楊立昆認為 , 當今的AI模型雖然有用 , 但遠不能與我們的寵物的智力相媲美 , 更不用說與我們人類相比了 。 當《華爾街日報》記者問他 , 我們是否應該擔心AI很快會變得非常強大以至于對我們構成危險時 , 他打趣道:“請原諒我說臟話 , 但那完全是胡說八道 。 ”
他的工作成果以及他是在一家大型科技公司中成就顯著的AI研究實驗室之一的領導人 , 這讓楊立昆的觀點更有分量 。
楊立昆告訴記者 , 他對AI產生興趣的部分原因是斯坦利·庫布里克(Stanley Kubrick)1968年的科幻經典電影《2001:太空漫游》中的流氓人工智能HAL 9000 。 他在巴黎北部長大 , 在從索邦大學獲得博士學位后 , 他在傳奇的貝爾實驗室工作 , 從晶體管到激光等許多發明都誕生于此 。 2003年 , 他加入紐約大學擔任計算機科學教授 , 十年后 , 他成為當時的Facebook的AI研究主管 。
2019年 , 楊立昆、辛頓和本吉奧一起獲得了圖靈獎 , 這是計算機科學的最高獎項 。 這個獎項使這三人被稱為“AI教父” , 以表彰他們在神經網絡方面的基礎性工作 , 神經網絡是許多當今最強大的AI系統的基礎 , 從OpenAI的聊天機器人到自動駕駛汽車 。

▲2019年 , 楊立昆(中間)與本吉奧(最左邊)和辛頓(最右邊)共同獲得了計算機科學領域的最高獎項圖靈獎(圖源:《華爾街日報》)如今 , 楊立昆繼續在紐約大學與他的博士生一起發表論文 , 同時他作為Meta的首席AI科學家 , 領導著世界上資金雄厚的AI研究組織之一 。 他經常與Meta CEO馬克·扎克伯格(Mark Zuckerberg)見面并通過WhatsApp聊天 , 扎克伯格正將Meta定位為AI熱潮中對抗蘋果和OpenAI等其他科技巨頭的力量 。
在現實生活中 , 楊立昆有一種讓人消除戒心的魅力:調皮、機智 , 隨時準備說出他認為是自己領域的殘酷真相 。 64歲的他看起來既時尚又有點邋遢 , 這很適合一位曾經的巴黎人 , 他的眼鏡是經典的黑色雷朋鏡框 。
坐在Meta位于紐約市的一個衛星辦公室的會議室里 , 他散發著溫暖和親切的自信 , 帶著那種讓你覺得自己也參與了這個笑話的笑容發表他的尖銳觀點 。
一、楊立昆否認AI威脅論 , 稱現有AI不如一只寵物貓楊立昆與競爭對手和朋友都進行過爭論 。 今年春天 , 他在海外社交平臺X上與馬斯克就科學研究的本質發生了激烈爭辯 。
楊立昆還在公開場合與辛頓和本吉奧就他們反復發出的AI對人類構成危險的警告表示不同意 。
本吉奧說 , 他在很多問題上與楊立昆意見一致 , 但在公司是否可以被信任以確保未來的超人類人工智能(superhuman AIs)不會被人類惡意使用 , 或者超人類人工智能不會產生自己的惡意意圖這一問題上存在分歧 。
“我希望他是對的 , 但我認為我們不應該僅僅依靠公司之間的競爭和利潤動機來保護公眾和民主 , ”本吉奧說 , “這就是為什么我認為我們需要政府的參與 。 ”
楊立昆認為AI是一個強大的工具 。 在整個采訪中 , 他列舉了許多AI在Meta變得極其重要的例子 , 并使Meta的規模和收入達到了目前約1.5萬億美元的價值 。 AI是Meta工作中不可或缺的一部分 , 從實時翻譯到內容審核 , 除了其基礎AI研究團隊(稱為FAIR)之外 , Meta還有一個以產品為重點的AI小組GenAI , 正在追求其大型語言模型的更好版本 。
“這對Meta的影響確實非常巨大 。 ”他說 。
同時 , 他確信當今的AI在任何有意義上都不是智能的——而且該領域的許多其他人 , 尤其是在AI初創公司中 , 準備以他認為荒謬的方式推斷其最近的發展 。
如果楊立昆的觀點是正確的 , 這對當今一些最熱門的初創公司來說意味著麻煩 , 更不用說那些向AI投入數百億美元的科技巨頭了 。 他們中的許多人都寄希望于這樣一種想法 , 即當今基于大語言模型的AI , 如OpenAI的那些 , 正處于在短期內創造所謂的“通用人工智能”(AGI)的道路上 , 這種AI將遠遠超過人類水平的智能 。
OpenAI的薩姆·阿爾特曼(Sam Altman)上個月在一篇博客中提到 , 我們可能在“幾千天內”擁有AGI 。 馬斯克則認為可能在2026年實現 。
楊立昆認為這樣的說法可能為時過早 。 今年5月 , 一位即將離職的OpenAI研究人員談到需要學習如何控制超智能人工智能時 , 楊立昆進行了反駁 。 “在我看來 , 在‘緊急弄清楚如何控制比我們聰明得多的AI系統’之前 , 我們需要先設計一個比家貓更聰明的系統 。 ”他在X上回復道 。
他喜歡貓的比喻 。 他說 , 畢竟貓科動物擁有物理世界的心理模型、持久的記憶、一些推理能力和計劃能力 。 而這些品質在當今的“前沿”AI中都不存在 , 包括Meta自己制造的AI 。
自1986年就認識楊立昆的萊昂·博圖(Léon Bottou)說 , 楊立昆是一種“善意的固執” , 也就是說 , 他愿意傾聽別人的觀點 , 但會一心一意地追求他認為構建AI的正確方法 。
亞歷山大·里夫斯(Alexander Rives)曾是楊立昆的博士生 , 后來創立了一家AI初創公司 , 他說楊立昆的挑釁是經過深思熟慮的 。 “他有這樣的歷史 , 即真的能夠看到該領域在思考問題方式上的差距 , 并指出這一點 , ”里夫斯說 。
二、楊立昆認為只是堆砌芯片和數據的規模并不能實現AGI【楊立昆最新采訪:AI威脅論是胡說八道,堆砌芯片和數據不能實現AGI】楊立昆認為真正的AGI是一個有價值的目標——Meta也在努力實現這個目標 。
“在未來 , 當人們與他們的AI系統、智能眼鏡或其他任何東西交談時 , 我們需要這些AI系統基本上具有人類水平的特征 , 真正具有常識 , 并真正像人類助手一樣表現 。 ”他在采訪中說 。
但他接著補充道 , 創造一個如此有能力的AI可能需要幾十年的時間——而當今的主導方法無法讓我們實現這一目標 。
生成式AI熱潮是由大語言模型和類似的系統推動的 , 這些系統在海量數據上進行訓練以模仿人類表達 。 隨著每一代模型變得更加強大 , 一些專家得出結論 , 只要將更多的芯片和數據投入到開發未來的AI中 , 就能使它們變得更有能力 , 最終與人類智能相匹配或超越人類智能 。 這就是在構建越來越多的專用芯片池以訓練AI方面進行大量投資的背后邏輯 。
楊立昆認為當今AI系統的問題在于它們的設計方式 , 而不是它們的規模 。 他說 , 無論科技巨頭在全球的數據中心中塞進多少GPU , 當今的AI都不會讓我們實現AGI 。
他的賭注是 , 對于以不同方式工作的AI的研究將為我們開啟一條通往人類水平智能的道路 。 這些假設的未來AI可能有多種形式 , 但目前讓楊立昆興奮的項目之一是在FAIR進行的從現實世界的視頻中提取信息的工作 。 這個想法是創建以類似于幼年動物的方式學習的模型 , 通過從其所接收的視覺信息中構建一個世界模型 。
用于ChatGPT和其他聊天機器人的大語言模型將來可能在使用一系列其他技術和算法構建的具有常識和類人類能力的系統中只發揮很小的作用 。
他說 , 當今的模型實際上只是在預測文本中的下一個單詞 。 但它們在這方面非常擅長 , 以至于欺騙了我們 。 而且由于它們巨大的存儲容量 , 它們似乎在進行推理 , 但實際上它們只是在重復已經訓練過的信息 。
“我們習慣于這樣的想法 , 即能夠表達自己或操縱語言的人或實體是聰明的——但這不是真的 , ”楊立昆說 , “你可以操縱語言但并不聰明 , 而這基本上就是大語言模型所展示的 。 ”
結語:三位“AI教父”的對于AI威脅論持不同意見曾經一同獲得2018年度圖靈獎的三位“AI教父” , 如今對于AI的認識與思考逐漸產生了分歧 。
楊立昆否認AI威脅論 , 認為此類言論是“胡說八道” , 現有的AI沒有人類想象中強大 , 實現AGI也為時尚早 , 想要創造出超越人類的智能則有更長的路要走 。
而另外兩位科學家 , 辛頓和本吉奧 , 則不斷敲響警鐘 , 呼吁大眾、企業和政府對AI背后的道德和倫理進行深刻反思 。
辛頓曾提出AI威脅論 , 他在諾貝爾獎頒獎典禮電話采訪中談道 , 很擔心AI會失去控制并取代人類 , OpenAI應該把安全研究放在首位 。 他還曾說過 , AI可能創造出超越人類的智能 , 這可能會導致人類處于劣勢 。
本吉奧在今天發布的最新采訪視頻中說道:“我們不清楚如何避免這些系統變得自主 , 并有自己的保護目標 , 我們可能會失去對這些系統的控制 。 所以我們可能正在走上一條創造比我們更強大的怪物的道路 。 ”
來源:《華爾街日報》、雅虎

    推薦閱讀