
在讓AI模型顯得越來越令人印象深刻的競賽中 , 科技公司采用了戲劇化的語言表達方式 。 他們不斷地像談論人類一樣談論AI 。 不僅討論AI的\"思考\"或\"規劃\"——這些詞語本身就充滿爭議——現在他們還討論AI模型的\"靈魂\" , 以及模型如何\"坦白\"、\"想要\"、\"策劃\"或\"感到不確定\" 。
這不是無害的營銷修辭 。 將AI擬人化是誤導性的、不負責任的 , 最終會腐蝕公眾對這項技術的理解 , 而這項技術在透明度方面本就存在問題 , 在這個最需要清晰認知的時刻 。
大型AI公司的研究本意是揭示生成式AI的行為特點 , 但往往以混淆而非闡明的方式呈現 。 例如 , OpenAI最近發布的一篇文章詳細介紹了讓其模型\"坦白\"錯誤或捷徑的工作 。 這是一個有價值的實驗 , 探索聊天機器人如何自我報告某些\"不當行為\" , 如幻覺和策劃 。 但OpenAI將這一過程描述為\"坦白\"暗示大語言模型的輸出背后存在心理因素 。
這可能源于人們認識到 , 大語言模型要實現真正的透明度是多么具有挑戰性 。 我們已經看到 , 例如 , AI模型無法可靠地展示其在解決數獨謎題等活動中的工作過程 。
AI能夠生成什么與它如何生成之間存在差距 , 這正是這種類人術語如此危險的原因 。 我們本可以討論這項技術的真正局限性和危險性 , 但將AI標記為有認知能力的存在的術語只會淡化擔憂或掩蓋風險 。
AI沒有靈魂
AI系統沒有靈魂、動機、感情或道德 。 它們不會因為感到誠實的驅動而\"坦白\" , 就像計算器在你按錯鍵時不會\"道歉\"一樣 。 這些系統基于從龐大數據集中學到的統計關系生成文本模式 。
就是這樣 。
任何感覺像人類的東西都是我們將內心生活投射到一面非常復雜的鏡子上 。
將AI擬人化讓人們對這些系統的實際本質產生錯誤認識 。 這會產生后果 。 當我們開始將意識和情感智能賦予一個實際上不存在這些特質的實體時 , 我們開始以它本不應該被信任的方式信任AI 。
今天 , 越來越多的人轉向\"ChatGPT醫生\"尋求醫療指導 , 而不是依賴有執照的合格臨床醫生 。 其他人在財務、心理健康和人際關系等領域轉向AI生成的回應 。 一些人與聊天機器人形成依賴性的虛假友誼 , 并聽從它們的指導 , 假設大語言模型輸出的任何內容都\"足夠好\" , 可以為他們的決策和行動提供信息 。
我們應該如何談論AI
當公司傾向于使用擬人化語言時 , 它們模糊了模擬和知覺之間的界限 。 這種術語夸大了期望 , 引發了恐懼 , 并分散了人們對真正值得關注的問題的注意力:數據集中的偏見、惡意行為者的濫用、安全性、可靠性和權力集中 。 這些話題都不需要神秘的隱喻 。
以Anthropic最近泄露的\"靈魂文檔\"為例 , 該文檔用于訓練Claude Opus 4.5的性格、自我認知和身份 。 這份古怪的內部文檔從未打算做出形而上學的聲明——更像是工程師們在調試指南上的即興發揮 。 然而 , 這些公司在閉門會議中使用的語言不可避免地滲透到普通大眾討論它們的方式中 。 一旦這種語言固化 , 它就會塑造我們對技術的想法 , 以及我們在技術周圍的行為方式 。
或者以OpenAI關于AI\"策劃\"的研究為例 , 其中少數罕見但具有欺騙性的回應讓一些研究人員得出結論 , 認為模型故意隱藏某些能力 。 仔細審查AI結果是好做法;暗示聊天機器人可能有自己的動機或策略則不是 。 OpenAI的報告實際上說這些行為是訓練數據和某些提示趨勢的結果 , 而不是欺騙的跡象 。 但因為它使用了\"策劃\"一詞 , 討論轉向了對AI成為某種狡詐智能體的擔憂 。
有更好、更準確、更技術性的詞匯 。 與其說\"靈魂\" , 不如談論模型的架構或訓練 。 與其說\"坦白\" , 不如稱之為錯誤報告或內部一致性檢查 。 與其說模型\"策劃\" , 不如描述其優化過程 。 我們應該使用趨勢、輸出、表示、優化器、模型更新或訓練動態等術語來指代AI 。 它們不如\"靈魂\"或\"坦白\"那樣戲劇性 , 但它們具有基于現實的優勢 。
公平地說 , 這些大語言模型行為看起來像人類是有原因的——公司訓練它們模仿我們 。
正如2021年論文《隨機鸚鵡的危險性》的作者所指出的 , 為了復制人類語言和交流而構建的系統最終將反映它——我們的用詞、語法、語調和基調 。 相似性并不意味著真正的理解 。 這意味著模型正在執行它被優化要做的事情 。 當聊天機器人現在能夠如此令人信服地模仿時 , 我們最終會將人性解讀到機器中 , 盡管實際上并不存在這樣的東西 。
語言塑造公眾認知 。 當詞匯馬虎、神奇或故意擬人化時 , 公眾最終得到的是扭曲的畫面 。 這種扭曲只有一個群體受益:那些從大語言模型看起來比實際更有能力、更有用、更人性化中獲利的AI公司 。
如果AI公司想要建立公眾信任 , 第一步很簡單 。 停止將語言模型當作有靈魂的神秘存在來對待 。 它們沒有感情——我們有 。 我們的話語應該反映這一點 , 而不是掩蓋它 。
Q&A
Q1:為什么說將AI擬人化是有害的?
A:將AI擬人化會誤導公眾對AI技術的真實理解 , 讓人們錯誤地認為AI系統具有意識、感情和道德判斷力 , 從而過度信任AI的決策能力 。 這導致人們在醫療、財務、情感健康等重要領域依賴AI建議 , 而忽視了AI系統的局限性和風險 。
Q2:AI公司為什么要使用擬人化語言描述AI系統?
A:科技公司采用擬人化語言主要是為了營銷目的 , 讓AI模型顯得更加令人印象深刻和有能力 。 這種語言策略讓大語言模型看起來比實際更有用和人性化 , 從而為公司帶來商業利益 , 但同時也誤導了公眾對AI技術本質的認知 。
Q3:應該如何正確地描述AI系統的行為?
A:應該使用更準確的技術術語來描述AI行為 , 比如用\"架構\"或\"訓練\"代替\"靈魂\" , 用\"錯誤報告\"代替\"坦白\" , 用\"優化過程\"代替\"策劃\" 。 還應該使用趨勢、輸出、表示、優化器、模型更新等基于現實的詞匯 , 避免神秘化或擬人化的表達 。
【停止將AI擬人化:這樣做的危害性分析】
推薦閱讀
- 美光:內存短缺將持續到2026年以后!全力增產也滿足不了
- HDMI 2.2線纜將于CES 2026期間展示:最高實現96Gbps帶寬
- 谷歌將于2026年推出首款AI眼鏡,與Meta展開正面競爭
- 消息稱明年全球智能手機出貨量同比將下滑 蘋果三星都不會幸免
- 中端機也有2億主攝+潛望長焦,又一神秘新機即將發布
- 蘋果24英寸iMac將采用三星與LG新型OLED顯示面板
- 小米17 Ultra被曝將推出特別版機型 Deco自帶變焦環
- 藍寶石高管:內存市場將在6-8個月穩定!不要買、把錢存起來
- 爆料稱蘋果iPad mini 8搭載A20 Pro芯片,性能或將大幅升級!
- 5D記憶晶體將成為未來數據存儲主流技術
