借道「無障礙」,AI助手可能在盯著你


2025年是當之無愧的Agent元年 。
從Manus爆火 , 到各家終端廠商開始推出并迭代端側AI助手 , 不難發現 , 廠商也意識到了這背后的機會 。
與曾經的大語言模型不同 , AI Agent能做的比聊天更多 。
只需要一句自然語言指令 , 手機就能自動完成點外賣、發紅包等曾經需要多步點擊的任務 。
大部分AI Agent能夠代管手機 , 是使用了安卓系統里特殊的無障礙權限 。 這個本來是設計給視障人士的功能 , 能夠讓手機看到屏幕上的一切 , 同時 , 還可以代替用戶執行點擊、滑動等操作 。 如今 , 廠商選擇用這個權限來實現AI功能 。
但當下 , 這份便利的背后實際隱藏著風險 。 在無障礙權限開放的背景下 , AI應用基本“全知全能” , 應用或許能夠讀取到包括支付密碼、聊天記錄在內的敏感信息 , 也可能可以隨意點擊 。
一個可見的事實是 , 隨著AI Agent技術不斷迭代 , 人類只會越來越習慣被硅基助手們包圍的日常 。
因此 , 當下更應該搞清楚AI Agent背后的運行機制 , 以及未來業界應該選擇走向何方 , 以求在“效率”和“安全”之間找到平衡 。

AI Agent的“翻墻”困境
手機端側大模型已然成為AI時代下爭奪新一代流量入口的關鍵機遇 。Counterpoint預測 ,2027年全球AI手機滲透率約40% , 出貨量有望達5.22億部 。
2024年6月 , 美國蘋果公司發布端側大模型Apple Intelligence , 將其新Siri定位為手機智能助手 。 國產手機廠商紛紛跟進 , 推出了小米MiLM、vivo藍心大模型、OPPO安第斯、榮耀魔方等端側大模型 。
就連AI廠商也開始試水端側業務 , 如OpenAI基于GPT大模型推出智能體Operator , 智譜也推出手機智能體AutoGLM 。
盡管參與者眾 , 攻下這個“兵家必爭之地”并非沒有難點 。 從人操縱手機 , 到AI操縱手機 , 最核心的問題是如何跨過App間的區隔 。
在接受《IT時報》記者采訪時 , 安全團隊網絡尖刀創始人曲子龍提到 , 各種App之間為了防止互相讀取數據 , 一般會設置隔離系統 , 只有接入對應的API(應用程序編程接口)才能調用 。
因此 , 要想實現代替人來操作 , AI Agent的第一步 , 就是要學會“翻墻” 。
“目前行業內主要存在兩種技術路徑 。 ”一位在頭部AI公司從事相關工作的技術人員向時代財經介紹 , 一種是接口模式 , 手機廠商和應用廠商達成協議 , 簽訂意圖框架 , 互通接口來實現操作;另一種 , 非接口的純視覺方案 , 直接調用手機的無障礙權限等系統級權限 , 不需要經過第三方App允許 , 就可以實現操作 。
對于廠商來說 , 選擇技術路徑 , 有幾個痛點需要考慮:一是AI Agent效果如何;二是開發AI功能對企業的效益;三則是用戶的數據安全及隱私問題 。
前述技術人員告訴時代財經 , 接口方案避免了直接掃描用戶屏幕 , 足夠安全 。 但一個顯著特點是 , 它太過依賴生態 。 各廠商都有自己的標準 , 導致App開發者需要針對不同手機品牌分別做適配 , 開發成本很高 。
調用無障礙權限問題也不少:用戶操作慢、準確率不高 , 同時由于需要實時獲取屏幕信息 , 涉及較多隱私 , 存在一定的安全風險 。 “但最大的特點就是開發快、通用性強 , 不受APP限制 。 ”
但或許是為了加速、低成本地搶占這一龐大市場 , 大部分端側AI工具的廠商選擇用無障礙權限這一現存的功能模塊來實現AI Agent的功能 。
“用戶跨APP的數據使用 , 需要得到雙重授權 , 但無障礙權限一旦被開放 , 就跨過了第三方APP授權的環節 。 ”前述技術人員則向時代財經表示 , 這樣用戶數據如果被濫用 , 很可能將無法追責 。
中國社會科學院法學研究所副研究員唐林垚曾提到 , 實踐中 , 端側大模型部署環境下存在隱私保護的三大缺陷:知情同意流于形式、多方主體責任劃分不清以及用戶權利難以實現 。
今年 , 關于無障礙權限與智能體應用如何結合 , 在行業層面已經推出多項規則 。 但時代財經注意到 , 這些規則并非強制 , 企業采納與否憑自愿 。

權限濫用或成黑灰產溫床
開放權限 , 本來是一件相當審慎的事 。
但是隨著應用形態越來越多變 , 功能實現的路徑越發復雜 , 用戶對自己的個人信息交付更加無感 。
在北京理工大學智能科技法律研究中心王磊研究員看來 , 盡管有的軟件已設置彈窗提示 , 但在實際使用中 , 相關提示常被用戶忽視或默認接受 , 導致合規保障機制作用有限 。 “目前 , 有部分AI應用運行中對于相關權利人是否知情和授權 , 沒有互動授權機制 。 ”王磊表示 。
而屏幕信息被讀取 , 已經對個人財產安全帶來極大損失 。
新華社在7月報道的一起詐騙案件顯示 , 無障礙權限讀屏成非法軟件詐騙后門 。 在報道中 , 詐騙軟件通過“屏幕共享”功能看到事主在手機上的所有操作 , 甚至看到事主輸入的銀行卡賬號、密碼、驗證碼等 , 通過“遠程控制”甚至能夠直接操控事主的手機 , 最終完成轉賬詐騙 。
而目前 , 已經有詐騙犯利用用戶對AI功能的需求 , 要求用戶向其開放無障礙權限 。
2月DeepSeek剛剛爆火時 , 湖州警方就公布了一起誘導用戶授權無障礙服務權限行騙的案件 , 詐騙分子仿冒DeepSeek官方提示用戶“需要應用程序更新” , 并在安裝所謂“新版DeepSeek”的過程中誘導用戶授予其后臺運行和使用無障礙服務的權限 。
部分AI應用在讀屏的時候的確會不加分辨地讀取所有屏幕上的信息 。
此前 , 某社交媒體就有用戶表示 , 在使用AI屏幕共享功能輔導孩子寫作時 , 發現經AI潤色的作文中竟包含其所在小區的信息 。 該名用戶表示 , 經排查發現 , 是AI讀取屏幕信息后 , 并未區分信息的敏感程度 , 而是全盤讀取 , 進而將其群名稱中的信息直接引用到了作文中 。
IDC咨詢分析稱 , 2025年 , AI Agent將迎來規模化落地浪潮 , 其通過智能化任務處理重構標準化作業流程的潛力備受期待 。
市場研究機構Markets and Market預測 , AI Agent市場規模將從2024年的51億美元飆升到2030年的471億美元 , 復合年增長率高達44.8% 。
隨著市場越來越大 , 安全 , 已經成為當前AI Agent用戶難以忽視的訴求 。
對外經貿大學、中國人民大學、螞蟻集團聯合發布的《算法與AI大模型的用戶認知調研報告(2024)》顯示 , 超半數的受訪者遇到了數據隱私和安全問題 , 60.09%的受訪者認為AI可能會不受控制地收集和處理個人信息 。
“現在行業還在摸索階段 , 沒有完美方案 , 但我認為接口方向無疑是更可持續的選擇 。 ”前述技術人員坦言 。

如何拒絕被監視?
面對逐漸擴大的市場和逐漸顯形的風險 , 業界和監管側應該怎么做?
王磊認為 , 對于AI風險 , 事前防范是目前最需要業界關注的焦點 。
“廠商需要提高對用戶隱私風險的防范意識 。 ”前述技術人員向時代財經提到 , 蘋果推出Apple Intelligence時 , 特別強調了隱私保護 , 甚至專門開發了“隱私云計算系統” 。
當服務要推向市場時 , 也可以先采取小范圍的測試 , 以保證功能足夠合規、安全 。 “OpenAI和Anthropic的智能體如果要用截屏功能 , 也會限定在瀏覽器或沙盒環境中 , 不會一開始就大規模推廣 。 ”前述技術人員介紹 。
在王磊看來 , 具體而言 , 企業必須明確界定實現特定功能所必需采集的最小屏幕區域和數據范圍 。 在技術上實現動態、精準的數據收集 , 避免“全景敞視”式的過度采集 。
其次 , 需建立針對屏幕數據采集的專項數據質量管理規范 , 明確在采集、傳輸、存儲、處理等環節對數據完整性、準確性和安全性的具體要求 。
“沒有人比企業更了解功能是如何實現的 , 同時 , 企業也是AI Agent接觸外界的第一個環節 。 因此 , 企業內部應該優先做好自查 。 ”王磊表示 。
今年4月 , 中國軟件行業協會發布《移動互聯網服務可訪問性安全要求》 , 要求智能體只有在獲得用戶明確授權后 , 方可啟用無障礙服務 。
5月 , 中國信通院聯合榮耀、OPPO、vivo、小米、華為、理想、快手等公司提出《關于共建終端智能體生態的倡議》 , 開展打通終端智能體與第三方應用、智能硬件其他智能體交互接口等工作 。
不過 , 這些并非強制性約束 , 是否采用相關標準的選擇權在企業 。
“對于監管側 , AI產品屏幕共享涉及海量個人信息和潛在商業秘密 , 對其監管涉及網信、工信、公安、市場監管等多個部門 , 但各類主體職能較為分散 , 容易出現監管盲區和重復監管的情況 。 ”王磊建議 , 監管側可采取敏捷性治理思路 , 如發布專項合規指引指導產業實踐 , 快速響應技術迭代帶來的潛在新型風險 , 在保障用戶權益與促進創新間尋求動態平衡 。
【借道「無障礙」,AI助手可能在盯著你】本文來自微信公眾號“時代財經APP”(ID:tf-app) , 作者:馮戀閣 , 36氪經授權發布 。

    推薦閱讀