AI智能體能否幫助決定患者生死?

AI智能體能否幫助決定患者生死?

十多年來 , 研究人員一直在思考人工智能是否能夠幫助預測失去行為能力的患者在醫生必須代表他們做出生死決定時可能希望得到什么 。
這仍然是當今醫療保健AI領域最高風險的問題之一 。 但隨著AI技術的改進 , 一些專家越來越認為 , 患者的數字\"克隆體\"有朝一日將不可避免地幫助家庭成員、醫生和倫理委員會做出符合患者價值觀和目標的臨終決定 。
Ars與正在進行或密切關注這項研究的專家進行了交流 , 他們確認目前還沒有醫院部署所謂的\"AI智能體\" 。 但AI研究員Muhammad Aurangzeb Ahmad正致力于改變這種狀況 , 他正在邁出在美國醫療機構試點AI智能體的第一步 。
\"這是非常新的領域 , 所以很少有人在研究它 , \"Ahmad告訴Ars 。
Ahmad是華盛頓大學醫學院創傷科的常駐研究員 。 他的研究基地位于西雅圖的哈勃維醫療中心 , 這是華盛頓大學醫學院健康系統的一家公立醫院 。 華盛頓大學醫學院與\"世界上最大的醫學研究項目之一\"相結合 , 致力于改善公共健康結果 , 華盛頓大學的網站說 。
Ahmad告訴Ars , 華盛頓大學并沒有專門尋找研究員來實驗AI智能體 。 但自從他的項目提案被接受以來 , 他今年大部分時間都在\"概念階段\" , 致力于基于哈勃維患者數據測試AI模型的準確性 。
Ahmad說 , 這種測試的主要限制是 , 只有當患者存活下來并且后來能確認模型做出了正確選擇時 , 他才能驗證模型的準確性 。 但他說這只是第一步 。 準確性測試隨后可以擴展到網絡中的其他設施 , 目標是開發能夠準確預測患者偏好\"三分之二\"時間的AI智能體 。
目前 , Ahmad的模型專注于分析哈勃維已經收集的數據 , 如受傷嚴重程度、病史、既往醫療選擇和人口統計信息 。
\"我們使用這些信息 , 將其輸入機器學習預測模型 , 然后在回顧性數據中觀察模型的表現如何 , \"Ahmad說 。
他確認 , 還沒有患者與Ahmad的模型進行過交互 。 華盛頓大學醫學院發言人Susan Gregg告訴Ars , \"啟動前還有相當多的工作要完成\" , 該系統\"只有在經過多階段審查程序后才會被批準\" 。
\"我們還沒有在哈勃維招募任何患者 , \"Ahmad說 。 \"我們仍然處于定義范圍和考慮理論因素的階段 。 考慮到所涉及的挑戰 , 距離實施還需要一段時間 。 \"
不過 , Ahmad設想未來的模型還將分析文本數據 , 也許來自患者批準的與醫生錄制的對話 , 以告知其AI副本的預測 。 在那個世界里 , 值得信賴的人類智能體 , 如家庭成員 , 可以從與患者的聊天或短信中提供其他文本數據 。 在技術最\"理想\"的形式中 , Ahmad認為患者將在整個生命過程中與AI系統互動 , 提供反饋來完善模型 , 因為患者在健康系統中老化 。
\"獲得相關數據需要時間 , \"Ahmad說 。
在患者開始與AI智能體互動之前 , 任何人體測試都需要得到機構審查委員會(IRB)的批準 , Ahmad說 。
最終 , 他預計AI智能體不會是一個完美的模型 , 而是一套經過嚴格測試的系統 , 醫生和親人在評估關于患者在關鍵時刻想要什么的所有已知信息時可以咨詢 。
醫院是否會采用這樣的系統尚不清楚 。 \"在這個領域 , 從業者更加保守 , 我甚至認為這是正確的 , \"Ahmad說 。
Gregg告訴Ars , 華盛頓大學醫學院支持\"對創新想法的深思熟慮的探索 , 比如在臨終護理中負責任和透明地使用AI智能體的潛力\" , 因為它們反映了\"我們對推進醫學科學和同情心的承諾\" 。
\"雖然臨終決策代表一個特別復雜的領域 , 但我們認為這些決定對于解決重要問題至關重要 , 比如當患者可能無法直接溝通他們的意愿或沒有近親代表他們這樣做時 , 如何最好地尊重患者的意愿 , \"Gregg說 。
沒有人類智能體的患者 , AI是否不合適?
當患者無法為自己說話時 , 醫生總是很難確定患者想要什么 。 例如 , 如果患者表達過希望避免生命末期的不適 , 他們可能拒絕使用呼吸機或接受透析或心肺復蘇術(CPR) 。 其他人可能擔心感染等并發癥 , 或者不愿意依賴機器維持生命 。 一些患者 , 如卷入事故的年輕人 , 可能從未表達過偏好 。
賓夕法尼亞州重癥監護室的醫生Emily Moin告訴Ars , 時間是這些決定中的一個因素 , 但必須讓可能更好地理解患者意愿的人類智能體參與進來 。
\"當我們處于這些快節奏的情況下 , 我們不知道 , 但我們面前有一個已經死亡的患者時 , 我們會傾向于提供[CPR
, 直到我們能夠得出臨床判斷認為這種努力不再有指征 , 或者直到我們能夠與智能體決策者接觸 , \"Moin解釋說 。
她說 , 聯系智能體是\"照顧某人的重要組成部分\" 。
Ahmad希望AI能夠幫助減輕不確定時刻的壓力 。 對于醫生和智能體來說 , 這些決定可能\"在情感上非常沉重 , \"Ahmad告訴Ars , 導致許多人質疑患者會選擇什么 。 他說 , 一些研究表明智能體經常弄錯 , 他相信AI可以幫助提高成功的幾率 。
為了從根本上解決這個問題 , 健康系統歷來推動患者完成\"預先指示\"來記錄他們的偏好 。 然而 , 隨著時間的推移 , 很明顯患者的偏好往往是不穩定的 , 有時在幾天內就會改變 。
醫生還必須考慮一些患者沒有明確的偏好 。 Moin說 , 其他人報告說 , 在接受救生治療后他們的偏好發生了變化 , 因為他們現在知道會發生什么 。 Ahmad計劃的測試可能還有其他限制 , 該測試將通過檢查AI的決定是否與患者在康復后說他們想要的匹配來確定準確性 , Moin說 。
\"這些決定是動態構建和依賴于上下文的 , \"Moin說 。 \"如果你通過詢問某人在康復后他們在康復前會說什么來評估模型的性能 , 那不會為你提供準確的表示 。 \"
Moin說醫療AI的一個大問題是人們期望它\"提供比我們目前能夠生成的更好的預測\" 。 但是模型正在\"方便的基本事實\"上進行訓練 , 她說 , 這些事實不能\"為模型學習將要使用模型的情況提供有意義的例子\" 。
\"我想象他們實際上想要部署這個模型來幫助為無代表的患者、無法溝通的患者、沒有智能體的患者做出決定 , \"Moin說 , \"但這些恰恰是你永遠無法知道所謂基本事實是什么的患者 , 然后你永遠無法評估你的偏見 , 你永遠無法評估你的模型的性能 。 \"
家庭成員可能默認同意AI
在文化上 , 美國已經從\"非常關注患者自主權\"轉向\"更多的共同決策 , 有時是以家庭和社區為重點的視角\"作為做出這些困難決定的標準 , Moin說 。
醫生了解患者的時間越長 , 患者的健康團隊與家庭成員的對話越多 , 健康系統就越有可能能夠適應隨著時間的推移尊重患者意愿的方式 , Moin建議 。
這個想法與Ahmad的\"理想\"AI智能體模型相呼應 。 但Moin說 , 如果患者與AI交談 , 實際上可能會阻止他們與家庭成員進行重要對話 。 研究發現 , 如果患者填寫預先指示 , 可能會更難確定他們的偏好 , Moin說 , 因為患者可能不太愿意與親人討論他們的偏好 。
今年早些時候 , Moin敦促人類智能體繼續密切參與不復蘇令 , 寫道單方面做出這些決定的醫生有道德義務\"確?;颊吆椭悄荏w決策者意識到已經做出了決定\" , 并面臨\"表達異議的最低障礙\" 。
\"放棄CPR是患者或智能體可以做出的最重要的治療決定之一 , 因為如果實施 , 它必然會導致死亡 , \"Moin寫道 。
Moin告訴Ars , 她希望AI智能體的輸出永遠不會比基于與患者生活經驗的人類智能體的意見更重要 。 \"但我確實擔心可能會有文化轉變和其他壓力 , 這會鼓勵臨床醫生和家庭成員更多地依賴這樣的產品 , \"她說 。
\"我可以想象這樣一個場景 , 比如說 , 醫生被期望在一天內查房24名危重患者 , 而家庭成員不愿意坐下來談話 , \"Moin說 。 \"所以是的 , 也許所有相關方都會默認使用來自這個模型的信息的捷徑 。 \"
Moin呼吁對AI智能體進行更多的公眾意識和辯論 , 指出\"人們真的討厭\"使用算法來確定誰獲得護理 。
\"我不認為這對患者、臨床醫生或社會都有好處 , \"Moin說 。
她特別擔心\"無法為自己說話且沒有明確親人的患者\"將是\"最容易遭受AI智能體做出錯誤決定傷害的人\" 。 太多這樣的錯誤可能會進一步削弱對健康系統的信任 , Moin說 。
AI智能體可能是多余的
這些決定對所有相關人員來說都是\"在心理社會方面充滿困難的\" , 舊金山退伍軍人醫療中心的住院醫師Teva Brender告訴Ars 。 這就是為什么像Ahmad這樣的測試很重要 , 他說 。
去年 , Brender與他人合作撰寫了一篇觀點文章 , 指出\"家庭為失去行為能力的患者做決定有多困難\" , 特別是在老年病學、姑息治療和重癥護理環境中 。
\"對許多人來說 , 將AI納入護理目標對話的概念會喚起反烏托邦未來的噩夢般愿景 , 在這個未來中 , 我們將深刻的人類決定托付給算法 , \"Brender的團隊寫道 。 \"我們分享這些擔憂 。 \"
但是考慮到醫生和智能體的預測面臨重大限制 , \"我們有義務考慮如何安全、道德和公平地部署AI來幫助重病人員的智能體 , \"Brender的團隊得出結論 。
Brender告訴Ars , \"同樣重要\"的是幫助患者選擇智能體并準備他們替代自己的判斷 。
Brender認為Ahmad的研究是值得的 , 因為有\"很多問題\"需要科學研究 。 但他\"很高興聽到\"AI智能體\"實際上還沒有在哈勃維的患者中使用\" 。 \"我無法想象IRB會在這么早的階段批準這樣的事情 , \"他告訴Ars 。
Brender說 , AI智能體最終可能發揮多余的作用 , 導致AI的這種潛在用途失寵 。
\"魔鬼代言人的觀點 , \"Brender說 , 是AI智能體只是在做\"好臨床醫生無論如何都會做的事情\" , 即詢問智能體 , \"嘿 , 這個人是誰?他們喜歡做什么?什么給他們的生活帶來了意義?\"
\"你需要AI來做這件事嗎?\"Brender問道 。 \"我不太確定 。 \"
醫生警告AI無法取代人類智能體
上個月 , 生物倫理學專家Robert Truog與致力于推進姑息治療以改善遭受危及生命疾病的人的生活質量的醫生R. Sean Morrison一起強調 , AI永遠不應該在復蘇決定中取代人類智能體 。
\"關于假設情景的決定與需要實時做出的決定不相關 , \"Morrison告訴Ars 。 \"AI無法解決這個根本問題——這不是更好預測的問題 。 患者的偏好往往代表一個時間點的快照 , 根本無法預測未來 。 \"
這個警告是在慕尼黑工業大學AI和神經科學倫理學主席的醫生兼高級研究員Georg Starke與他人合作撰寫了一個概念證明后發出的 , 該證明顯示三個AI模型平均比人類智能體在預測患者偏好方面表現更好 。
Starke的研究依賴于來自歐洲調查的瑞士受訪者的現有數據 , 該調查跟蹤了50歲以上個人的人口健康趨勢 。 數據集提供了\"關于參與者臨終偏好的全面信息 , 包括關于\"CPR的問題 。 這使團隊能夠構建三個模型:一個簡單模型、一個基于常用電子健康記錄的模型和一個更\"個性化\"的模型 。 每個模型都成功預測了經歷心臟驟停的患者是否想要CPR , 準確率高達70% 。
他的團隊的研究旨在\"在經驗數據中建立長期存在的倫理辯論 , \"Starke告訴Ars 。
\"十多年來 , 人們一直在推測使用算法來改善失去行為能力患者的臨床決策 , 但沒有人顯示這樣的程序是否真的可以設計出來 , \"Starke說 。 \"我們的研究旨在測試這是否可行 , 探索它的表現如何 , 確定哪些因素影響模型的決定 , 并引發關于該技術的更廣泛辯論 。 \"
僅依賴于\"'準確性'\"的AI模型的一個關鍵限制——特別是如果該\"準確性\"是\"通過偶然或通過模式匹配純粹在個人控制之外的人口統計數據實現的\"——是輸出不\"一定反映自主選擇 , \"Starke說 。
像Truog和Morrison一樣 , Starke的團隊強調\"人類智能體將仍然是特定情況上下文方面的基本來源\" , 特別是對于癡呆癥患者 , 并同意AI模型\"不應該取代智能體決策\" 。
聊天機器人智能體可能是壞的
人類智能體將來可能會信任AI系統 , 但\"這都取決于信息是如何呈現的 , \"住院醫師Brender告訴Ars 。
他認為AI系統最好作為討論的\"發射臺\" , 為智能體提供考慮哪些數據對患者可能重要的方式 。
但他同意Moin的觀點 , 即如果不透明AI智能體如何得出決定 , AI可能會播下不信任的種子 。
例如 , 想象一下 , 如果AI系統不知道可能完全改變患者預后的癌癥新療法 。 Brender建議 , 如果醫院投資AI來改善預后 , 而不是\"字面上預測患者想要什么\" , 患者可能會得到更好的服務 。 Truog和Morrison還建議 , 像Ahmad這樣的AI研究可以幫助醫院確定哪些類型的患者往往隨著時間的推移有更穩定的偏好 。
Brender建議 , 如果AI智能體以聊天機器人界面呈現 , 導致醫生和家庭成員對算法\"過度信任\" , 可能會出現噩夢般的情景 。 這就是為什么如果這項技術被部署 , 透明度和嚴格測試將是至關重要的 , 他說 。
\"如果黑盒算法說祖母不想要復蘇 , 我不知道那是否有幫助 , \"Brender說 。 \"你需要它是可解釋的 。 \"
AI智能體偏見的研究不存在
Ahmad同意人類應該始終在循環中 。 他強調他并不急于部署他的AI模型 , 這些模型仍然處于概念階段 。 使他的工作復雜化的是 , 目前在使用AI智能體方面幾乎沒有探索偏見和公平性的研究 。
Ahmad旨在通過本周發布的預印本論文開始填補這一空白 , 該論文描繪了各種公平概念 , 然后檢查跨道德傳統的公平性 。 最終 , Ahmad建議 , 在使用AI智能體方面的公平性\"超越結果的平等 , 包含道德代表性、對患者價值觀、關系和世界觀的忠實\" 。
\"核心問題不僅變成'模型是無偏見的嗎?'而是'模型居住在誰的道德宇宙中?'\"Ahmad寫道 , 提供了一個例子:
考慮以下情況:兩個類似臨床檔案的患者可能在道德推理上有所不同 , 一個被自主權指導 , 另一個被家庭或宗教義務指導 。 在算法術語中以\"類似\"方式對待他們將構成道德抹殺 。 個體公平性需要整合價值敏感的特征 , 如記錄的精神偏好或關于舒適的陳述 , 而不違反隱私 。
Ahmad建議 , 如果這種技術真的發生 , 可能需要十多年才能部署給患者 , 因為對于AI模型來說 , 訓練計算像一個人的價值觀和信念這樣復雜的東西是多么具有挑戰性 。
\"這就是事情變得真正復雜的地方 , \"Ahmad告訴Ars , 指出\"有社會規范 , 然后在特定宗教群體內有規范 。 \"
考慮一個\"極端例子 , \"Ahmad說 。 想象醫生可能面臨的難題 , 如果他們試圖決定是否應該讓一個卷入事故的懷孕婦女停止使用呼吸機 , 因為過時的記錄顯示她曾經標記過這是她的偏好 。 像她的伴侶或家庭成員這樣的人類智能體可能能夠代表她倡導繼續使用呼吸機 , 特別是如果這個女人持有反墮胎觀點 , 他說 。
沒有人類智能體 , 醫生可以求助于AI來幫助他們做決定 , 但只有當AI系統能夠基于\"從數據、臨床變量、人口統計信息、臨床筆記中的語言標記 , 以及可能患者的數字足跡中學到的模式\"捕捉患者的價值觀和信念時 , Ahmad的論文解釋說 。
然后是AI模型\"有些脆弱\"的問題 , Ahmad說 , 如果問題的措辭略有不同或以模型不理解的\"聰明\"方式 , 可能會給出\"非常不同的答案\" 。
Ahmad沒有回避他所說的\"工程價值觀問題\" 。 為了更好地理解其他研究人員如何處理這個問題以及患者對AI智能體可能有什么期望 , Ahmad最近參加了在德克薩斯州達拉斯舉行的關于AI的福音派基督教會議 。 在那里 , 似乎很清楚 , 在AI智能體被整合到醫院的未來中 , 一些患者可能對大語言模型能夠復制他們內心真理的程度有很高的期望 。
\"真正突出的一件事是人們——特別是當涉及到大語言模型時——有很多關于擁有反映他們價值觀的大語言模型版本的討論 , \"Ahmad說 。
Starke告訴Ars , 他認為至少從臨床角度來看 , 基于最易獲得的電子健康記錄構建模型是理想的 。 不過 , 為了最好地為患者服務 , 他同意Ahmad的觀點 , 認為\"理想的數據集將是大型、多樣化、縱向和專門構建的\" 。
\"它將結合人口統計和臨床變量、記錄的預先護理規劃數據、患者記錄的價值觀和目標 , 以及關于具體決定的上下文信息 , \"他說 。
\"包括文本和對話數據可以進一步增強模型學習偏好為什么產生和改變的能力 , 而不僅僅是患者在單一時間點的偏好是什么 , \"Starke說 。
Ahmad建議未來的研究可以專注于在臨床試驗中驗證公平性框架 , 通過模擬評估道德權衡 , 以及探索跨文化生物倫理學如何與AI設計相結合 。
只有到那時 , AI智能體才可能準備好被部署 , 但只能作為\"決策輔助\" , Ahmad寫道 。 任何\"爭議輸出\"應該自動\"觸發[倫理
審查\" , Ahmad寫道 , 得出結論\"最公平的AI智能體是邀請對話、承認懷疑并為護理留出空間的智能體\" 。
\"AI不會赦免我們\"
Ahmad希望在未來五年內在華盛頓大學的各個站點測試他的概念模型 , 這將提供\"某種量化這項技術有多好的方法\" , 他說 。
\"在那之后 , 我認為作為一個社會 , 我們如何決定整合或不整合這樣的東西 , 這是一個集體決定 , \"Ahmad說 。
在他的論文中 , 他警告不要使用可能被解釋為患者模擬的聊天機器人AI智能體 , 預測未來的模型甚至可能用患者的聲音說話 , 并建議這些工具的\"舒適和熟悉\"可能模糊\"援助和情感操縱之間的界限\" 。
Starke同意需要更多的研究和患者與醫生之間\"更豐富的對話\" 。
\"我們應該謹慎 , 不要不加區別地應用AI作為尋找問題的解決方案 , \"Starke說 。 \"AI不會赦免我們做出困難的倫理決定 , 特別是關于生死的決定 。 \"
生物倫理學專家Truog告訴Ars , 他\"可以想象AI有一天可能\"\"為智能體決策者提供一些有趣的信息 , 這將是有幫助的\" 。
但Truog的社論說 , \"所有這些路徑的問題……是它們將是否進行CPR的決定框架為二元選擇 , 無論上下文或心臟驟停的情況如何\" 。 \"在現實世界中 , 當患者失去意識時 , '患者是否想要進行CPR'這個問題的答案 , '在幾乎所有情況下 , '都是'這取決于情況'\" 。
當Truog思考他可能最終陷入的情況類型時 , 他知道他不會只是考慮自己的價值觀、健康和生活質量 。 他的選擇\"可能取決于我的孩子們的想法\"或\"對我的預后細節的財務后果會是什么\" , 他告訴Ars 。
\"我希望我的妻子或另一個了解我的人做出這些決定 , \"Truog說 。 \"我不希望有人說 , '好吧 , 這是AI告訴我們的 。 '\"
Q&A
Q1:什么是AI智能體?它在醫療決策中能發揮什么作用?
A:AI智能體是指能夠幫助預測失去行為能力患者意愿的人工智能系統 。 當患者無法為自己做決定時 , 這些數字\"克隆體\"可以協助家庭成員、醫生和倫理委員會做出符合患者價值觀和目標的臨終決定 。 目前仍處于研究階段 , 沒有醫院正式部署這種技術 。
Q2:AI智能體預測患者意愿的準確率有多高?
A:根據最新研究 , AI模型在預測患者是否愿意接受心肺復蘇術方面的準確率可達70% 。 研究人員Muhammad Aurangzeb Ahmad的目標是開發能夠準確預測患者偏好\"三分之二\"時間的AI智能體 。 不過 , 專家指出患者偏好往往不穩定 , 有時在幾天內就會改變 。
Q3:使用AI智能體進行醫療決策存在什么風險和爭議?
A:主要風險包括:AI可能無法準確捕捉患者復雜的價值觀和信念;可能導致醫生和家屬過度依賴算法而忽視人際溝通;對于沒有人類智能體的患者 , 錯誤決策可能造成更大傷害 。 專家強調AI應該只作為決策輔助工具 , 不能取代人類智能體的判斷 。
【AI智能體能否幫助決定患者生死?】

    推薦閱讀