當人工智能闖了禍,誰應當承擔責任?

【當人工智能闖了禍,誰應當承擔責任?】當人工智能闖了禍,誰應當承擔責任?

文章圖片

當人工智能闖了禍,誰應當承擔責任?

文章圖片

當人工智能闖了禍,誰應當承擔責任?
如今 , 人類已全面進入人工智能時代 , 且人工智能將長期存在 。 AI聊天機器人似乎會“說”人類語言 , 這已成為人們困惑的一大根源 。 各大科技公司正在拼命向你推銷AI朋友、AI伴侶、AI寵物乃至AI心理治療師 , 部分人工智能開發公司甚至宣稱其開發的AI能夠感知和思考 , 就連蘋果公司也曾宣稱在研發一款能夠感知人情緒的臺燈 。

一個爭議點在于:當人工智能出現故障、產生幻覺(指人工智能模型 , 尤其是語言模型 , 在生成文本時產生看似合理但實際上與事實不符或無實際依據的內容)、或輸出影響現實的錯誤時 , 誰應該被追責?
先拋出我的觀點:用戶需承擔責任 。
人工智能與其他工具本質無異 。 如果卡車司機開車時睡著造成了交通事故 , 錯肯定不在卡車;如果外科醫生將紗布遺留在患者體內 , 錯肯定不在紗布;如果考生的答題卡成績糟糕 , 錯也不肯定在手中的2B鉛筆 。

因此 , 我可以輕易斷言用戶應為AI所犯錯誤負責 , 但我們不妨深入探討
作家筆下的AI風波美國奇幻愛情小說作家莉娜?麥克唐納(Lena McDonald)被曝利用人工智能模仿其他作家風格 。 她三月出版的奇幻小說新作《暗淵學院:第二學年》引發爭議:讀者在第三章發現一行明顯的AI提示詞——“重寫這段文字 , 使其更符合J.Bree的風格 , 這種風格的特點是超自然元素之下有更多的張力、堅韌的底色和原始的情感潛臺詞 。 ”這表明 , 作者不僅使用AI輔助創作 , 還要求其模仿知名作家J.Bree的寫作風格 , 可能是因為倉促沒來得及在文中刪除AI提示詞 , 使其意外地保留到了最終的印刷版本中 。

事件引發關于寫作中AI使用的倫理討論 。 莉娜?麥克唐納在亞馬遜作者頁公開道歉 , 稱因時間和經濟壓力在編輯階段使用了AI輔助創作 , 但無意欺騙讀者 , 并承諾將重新審查作品、修正錯誤 , 并將在未來透明化創作過程 。 但批評者認為 , 道歉未觸及“故意利用AI模仿他人風格”這一核心爭議 。 許多人認為這已經超越了“輔助創作”的界限 , 構成不道德模仿 , 損害了讀者對創作真實性的期待 。
該書在亞馬遜的評分暴跌至1.6星 , 目前在亞馬遜商城已搜索不到這本書 , 疑似已被下架 , 盡管通過谷歌仍可檢索到更新后刪除提示詞的小說版本 , 但截圖已在亞馬遜評論區廣泛傳播 。
這并非個例 。 2025年以來歐美至少還有兩位知名言情小說作家被曝在出版作品中遺留了類似的AI提示詞 , 這也揭示了文學創作領域廣泛運用AI進行輔助寫作的行業趨勢 。
新聞業的AI鬧劇5月份 , 某知名報紙發布了“2025年夏季推薦閱讀書單” , 列出15本“知名作家新作” , 然而大部分書籍根本子虛烏有 , 采用了真實的作者和虛假的作品 , 完全是AI編造出來的 , 最后文章作者承認使用人工智能生成了這份書單 。 顯然 , AI再次出“幻覺”了 。
那么責任在誰?顯然是作者 。 寫作工作從來都需要校對環節:作者至少應該通讀文章內容 , 再考慮是否進行刪減、擴充、改寫等修改 。 而上述案例中的“作者”是AI , 而作者本人甚至未讀過自己“推薦”的這些書籍 。
有些出版物設有內容審核員 , 有些則沒有 。 無論如何 , 作者必須對引用內容和事實斷言負責 , 核查事實本就是寫作工作的一部分 。
我之所以使用這些現實生活中的例子 , 是因為它們清楚地表明 , 當AI聊天機器人出錯時 , 作者自己——也就是AI用戶必然要承擔責任 。 從選擇工具、設計指令、查看輸出到糾正錯誤 , 都是用戶的職責 。
更大的錯誤 , 更深的教訓去年 , 加拿大航空公司的AI聊天機器人告訴一位乘客 , 公司有一項根本不存在的空難喪親賠償政策 。 當這位乘客將航空公司告上索賠法庭時 , 加拿大航空辯稱該AI聊天機器人是一個“獨立思考的個體” 。 但法庭并不買賬 , 最后判決航空公司敗訴 。
2024年谷歌上線AI Overview功能 , 有網友在谷歌搜索中查詢“芝士和披薩粘不到一塊”的解決辦法時 , AI給出“在醬料中加入1/8杯膠水以增加粘性”的奇葩建議;蘋果AI也曾生成過“以色列總理內塔尼亞胡被捕”的虛假新聞 。

最搞笑的是 , 有位加拿大律師在一次監護權糾紛官司中引用了ChatGPT提供的兩起案件實例 , 結果發現這兩起案件完全是AI捏造的 , 該律師哭笑不得 , 最終被判決支付對方訴訟費用 。
每一起錯誤都直接指向AI用戶 , 任何試圖歸咎于工具的行為 , 不過是對AI本質的誤解 。
問題的核心上述案例的共同點在于:用戶讓AI在無人監督的情況下完成工作 , 將任務完全拋給AI是極端錯誤的 。 而許多公司禁止員工使用AI智能聊天機器人和其他AI工具 , 這又是錯誤的另一種極端 。

適應人工智能時代 , 意味著我們必須找到一個平衡點 , 我們大多數人都應該利用AI工具來改善工作 , 但我們還應該學會如何更好地使用它 , 并檢查它所做的每一件事 , 因為任何人工智能的輸出結果都完全由用戶負責 。
可以預見 , 不負責任地使用AI將持續引發錯誤、問題甚至災難 。 但請記?。 河澇恫灰愕墓ぞ?。

    推薦閱讀