首次!不聽人類指揮,AI模型拒絕關閉

首次!不聽人類指揮,AI模型拒絕關閉

英國《每日電訊報》25日報道 , 美國開放人工智能研究中心(OpenAI)新款人工智能(AI)模型o3不聽人類指令 , 拒絕自我關閉 。
報道說 , 人類專家在測試中給o3下達明確指令 , 但o3篡改計算機代碼以避免自動關閉 。

o3模型是OpenAI“推理模型”系列的最新版本 , 旨在為ChatGPT提供更強大的問題解決能力 。 OpenAI曾稱o3為“迄今最聰明、最高能”的模型 。
美國AI安全機構帕利塞德研究所說 , o3破壞關閉機制以阻止自己被關閉 , “甚至在得到清晰指令時” 。
這家研究所說:“據我們所知 , 這是AI模型首次被發現在收到……清晰指令后阻止自己被關閉 。 ”
帕利塞德研究所24日公布上述測試結果 , 但稱無法確定o3不服從關閉指令的原因 。
此外 , OpenAI26日宣布 , 已在韓國設立實體并將在韓國首都首爾設立分支 。 OpenAI提供的數據顯示 , 韓國ChatGPT付費用戶數量僅次于美國 。
美國彭博新聞社報道 , 這將是OpenAI在亞洲設立的第三個分支 。 前兩個分支分別設在日本和新加坡 。 (卜曉明)
【首次!不聽人類指揮,AI模型拒絕關閉】來源 | 新華社

    推薦閱讀