
聯邦政府在制定智能體AI系統安全指導方針時 , 應優先考慮互操作性和基于風險的標準 , 各大企業向美國國家標準與技術研究院(NIST)表達了這一觀點 。
NIST的AI標準與創新中心正在探索如何幫助AI公司及其客戶保護智能體免受篡改或濫用 , 作為該項目的一部分 , 該機構在周一晚上前征求了公眾意見 。 根據案卷記錄 , 超過930個組織和個人提交了意見 , 其中包括一些有影響力的行業貿易集團:美國銀行家協會和銀行政策研究所、軟件集團BSA以及科技行業巨頭TechNet 。
這些組織向NIST提出了廣泛的建議 , 包括發布參考實現、強調安全設計原則、支持智能體AI驗證管理研究以及將新指導方針映射到現有NIST出版物 。
TechNet表示:\"一個協作、迭代的方法 , 專注于實用指導、現實世界測試以及與現有風險管理框架的一致性 , 將有助于確保AI智能體能夠安全且大規模部署 , 使美國能夠充分獲得這一新興技術的經濟和社會效益 。 \"
NIST要求評論者討論幾個主題 , 包括AI智能體特有的安全風險以及減輕這些風險的方法 。
在其回應中 , BSA描述了四種獨特威脅:智能體的自主行為導致現實世界行動需要監督;智能體在不同工具間切換 , 使\"靜態策略執行\"變得困難;智能體隨時間保留信息 , 可能讓黑客通過污染數據源來劫持它們;以及智能體的\"非確定性行為\"使得用\"基于規則的安全控制\"來控制它們變得困難 。
為了應對這些挑戰 , BSA表示 , 企業應該建立對AI智能體的完全可見性 , 編目其權限(這有助于快速識別未授權行為) , 驗證驅動智能體活動的AI代碼供應鏈 , 并實時監控其行為 。
行業組織表示 , 智能體特別危險的原因在于它們能夠通過模型上下文協議等系統連接到第三方數據庫和物理設備 。 TechNet表示:\"由于AI智能體可以與工具、外部數據和現實世界系統交互 , 它們帶來了需要針對性關注的獨特安全挑戰 。 \"
NIST并非監管機構 , 特朗普政府已經表現出對規范性AI安全要求的明顯反對 。 盡管如此 , 行業組織仍重申了他們經常提出的觀點 , 即對任何AI系統的繁重規則都會在沒有顯著改善安全性的情況下阻礙創新 。
TechNet表示:\"政策目標應該是在不通過過早、過于規范或一刀切的要求減緩創新的情況下 , 減少和管理這些風險 。 \"該組織鼓勵NIST專注于\"性能定義指導方針\" 。
BPI和ABA同樣鼓勵NIST專注于\"自愿和技術無關\"的指導 , 提供\"可以根據風險和操作環境定制的實際示例和說明性驗證方法\" 。
金融服務組織表示:\"這樣的指導將促進行業采用 , 支持集成規劃和基于風險的審查 , 包括在適當時進行盡職調查 , 并支持遵守法律和監管義務 , 而無需規定單一實施方法 。 \"
TechNet指出航空業是其偏好的基于性能標準的例子 。 該組織解釋說:\"監管者沒有強制統一的技術設計 , 而是建立了與風險暴露和操作環境相關的結果導向標準 。 這一模式在飛機設計、自主性和操作實踐方面創造了期望的清晰度 , 同時促進了創新 。 \"
【產業界呼吁NIST保持智能體AI標準的靈活性和自愿性】TechNet補充說 , AI智能體根據使用方式、使用地點以及擁有的自主權程度呈現不同的風險水平 , 這使得基于風險的方法\"特別重要\" 。
TechNet表示 , 智能體AI領域仍處于起步階段 , NIST的指導\"應該為實驗保留有意義的空間 , 因為智能體AI安全實踐繼續成熟\" 。
該組織警告說:\"過于僵化或過早的要求可能會在該領域確定最佳技術之前凍結安全方法 。 \"
根據貿易組織的說法 , AI行業可以從政府對開發者尚未解決的一系列問題的建議和研究贊助中受益 。
BSA鼓勵NIST研究驗證AI智能體身份的方法 , 以及使用\"加密監管鏈\"來記錄智能體被授權做什么的方法 。 TechNet同樣提到了可靠智能體識別解決方案的重要性 , 并表示它們應該具有互操作性 , 以避免將市場新參與者拒之門外 。
隨著越來越多的銀行尋求使用AI智能體來處理資產交換 , ABA和BPI鼓勵NIST提供特定于金融行業的指導 , 包括\"安全對手方交互\"的參考資料 。
TechNet以及ABA和BPI還要求NIST將其智能體特定指導納入現有出版物 , 如風險管理框架 。
Q&A
Q1:什么是智能體AI系統?它們有哪些獨特的安全風險?
A:智能體AI系統是能夠自主行為并與現實世界交互的AI系統 。 它們的獨特安全風險包括:自主行為導致的現實行動需要監督、在不同工具間切換使靜態策略執行困難、隨時間保留信息可能被黑客利用 , 以及非確定性行為難以用規則控制 。
Q2:為什么行業組織反對過于嚴格的AI監管要求?
A:行業組織認為繁重的規則會在沒有顯著改善安全性的情況下阻礙創新 。 由于智能體AI領域仍處于起步階段 , 過于僵化或過早的要求可能會在該領域確定最佳技術之前凍結安全方法 , 阻止技術進步和實驗 。
Q3:NIST應該如何制定智能體AI的安全標準?
A:行業建議NIST應該制定自愿性、基于風險、技術無關的指導方針 , 重點關注性能定義而非規范要求 。 標準應具有互操作性 , 能根據風險和操作環境定制 , 并為技術實驗和創新保留空間 , 同時與現有風險管理框架保持一致 。
推薦閱讀
- FCC主席呼吁莫過度監管AI 歐美應聯手應對中國挑戰
- 微軟呼吁科技巨頭自付數據中心電力成本保護消費者
- 北京國補上線秒光 用戶呼吁增加更多國補名額
- 美國NIST發布人工智能網絡安全框架指南草案
- iPhone 18 Pro改左上角挖孔 網友呼吁蘋果不要這么做:真的丑
- 美國NIST警告:網絡授時不再準確!最準原子鐘出故障不知何時恢復
- AI智能體漏洞挖掘成本驟降,Anthropic呼吁AI防御
- 英國量子計算發展面臨挑戰,專家呼吁政府加大支持力度
- 項立剛:產業界喜歡用華為,金融界喜歡用蘋果
- 蘋果向美國呼吁嚴格限制華為在美國和歐洲等地的銷售
