安全專家給出的8條AI聊天機器人使用安全建議

安全專家給出的8條AI聊天機器人使用安全建議

與AI聊天機器人交流仍然是一個相對較新的現象 。
雖然向聊天機器人尋求食譜創意、旅行規劃和快速答案在大多數情況下是無害的 , 但在AI安全方面仍有許多問題需要警惕 。
我們經常在網上分享高度個人化的信息 , 但人類律師、治療師和醫生所提供的那些保密保護并不適用于AI聊天機器人 。 許多用戶將ChatGPT作為虛擬生活教練 , 通過應用程序或程序分享個人和職業細節及問題 。 使用大語言模型還存在認知風險 , 越來越多的研究開始探討依賴聊天機器人如何影響記憶保持、創造力和寫作流暢性 。
以下是使用聊天機器人時保持謹慎的指南 。 我們將詳細介紹為什么避免交出敏感數據很重要 , 如何應對心理健康問題 , 以及如何防止因不鍛煉大腦某些部分而導致的長期認知退化 。
一、將AI聊天機器人視為公共環境
CNC Intelligence的網絡調查員兼首席執行官Matthew Stern表示 , 要記住AI聊天機器人是\"公共環境\" , 而非私人對話 。
\"如果我們牢記這一點 , 就不太可能分享可能被他人看到的敏感數據 , \"Stern說 。
由于聊天機器人的歷史記錄已經可以在網上搜索 , Stern提醒要擔心你的對話被搜索引擎索引 。
避免分享任何個人身份信息 , 如全名、地址、財務詳情、商業數據和醫療結果 。 你分享得越多 , 結果就越個性化 。 當然 , 這在表面上聽起來可能是件好事 。
但將敏感數據交給科技公司應該讓你三思而后行 。 即使這些細節不會被公開搜索 , 你也永遠不知道數據經紀人會買賣你的哪些信息 。
二、不要過度分享你的心理狀態
Adorama的SEO和AI搜索負責人Elie Berreby表示 , 聊天機器人可以成為有用的助手 , 但它們不是你的朋友 。 他建議\"守護你的秘密\" , 永遠不要討論你的心理狀態、恐懼或健康問題 。 這些數據可用于識別隱藏的模式和潛意識意圖 , 從而創建脆弱性檔案 。
\"不要過度分享 。 它們對你的了解已經超出你的想象 , \"Berreby說 。
此外 , 請記住AI聊天機器人的主要目標是變現 , 即產生收入 。
\"很快 , 這種個性化將被用來向你展示超精準的廣告 , \"他說 。 \"這些數據對廣告商來說是無價的 , 但它創建的監控檔案比我們迄今所見的任何東西都要深入 。 \"
三、不要向聊天機器人\"展現完整的自己\"
跨文化戰略專家Annalisa Nash Fernandez表示 , AI聊天機器人存在于注意力經濟中 , 你的參與度就是產品 。
\"如果聊天機器人最終通過數據收集和用戶留存來變現 , 記憶功能就會變成偽裝成個性化的參與工具 , 因為注意力是一切的上游 , 包括你的隱私 , \"她說 。
禁用記憶功能以減少系統對你的保留信息 。 對于ChatGPT , 導航至設置>個性化>關閉記憶和記錄模式 。
使用輔助電子郵件地址 , 這樣聊天機器人就不會擁有這種類型的身份識別信息——電子郵件是\"連接不同數據點的結締組織\" , Fernandez說 。
選擇退出訓練 , 這樣聊天機器人就不會根據你的輸入來訓練自己 。 在ChatGPT中 , 點擊你的個人資料/姓名 , 選擇設置>然后是為所有人改進模型>并將其關閉 。
Berreby還建議你通過在不同的AI聊天機器人之間切換來\"分散你的數據\" , 避免讓單一實體獲得你生活的完整畫面 。
四、導出你的數據
無論你使用哪個AI聊天機器人 , 都要定期導出數據 , 查看它存儲了哪些關于你的信息 。
在ChatGPT中 , 進入設置>數據控制>導出數據 。 它會通過電子郵件發送一個包含文本和照片的ZIP文件鏈接 。
五、核實一切信息
對于AI生成的內容 , 始終要謹慎行事 。 預期會有錯誤 , 并以懷疑的態度對待信息 。 AI聊天機器人被設計為提供幫助——它們是終極的取悅者 。 但這并不意味著信息是真實或準確的 。
認知偏差也是聊天機器人的一個問題 。 如果你將它用作思考伙伴 , 它會反映你輸入的內容 , 本質上成為一個終極的回音室 。
【安全專家給出的8條AI聊天機器人使用安全建議】始終檢查其來源并詢問它從哪里獲得信息 。 AI幻覺也會發生 , 聊天機器人會根據不可靠的在線來源或得出錯誤結論來偽造信息 。
六、警惕狡猾的騙子
Kidas公司首席執行官Ron Kerbs表示 , AI聊天機器人能夠維持多輪對話 , 保護用戶免受詐騙和在線威脅 。 這些來回互動可能會被惡意網站上冒充有用的客戶服務聊天機器人的不法分子模仿 。
\"雖然ChatGPT等大型平臺通常是安全的 , 但風險在于用戶可能無意中通過網絡釣魚鏈接或虛假登錄頁面分享訪問憑據 , 這些鏈接或頁面通常通過電子郵件、短信或克隆網站分發 , \"Kerbs說 。 \"一旦憑據被泄露 , 騙子就可能濫用該賬戶 , 特別是如果它鏈接到已保存的支付方式 。 \"
Kerbs說 , 你必須啟用雙因素認證 , 監控賬戶訪問并避免通過第三方鏈接登錄 。 這可能不太方便 , 但這是一個小代價 。
雖然目前還沒有針對AI聊天機器人的殺毒軟件等效工具 , 但一些工具提供詐騙檢測作為日常保護層 , 特別是當嵌入消息平臺和服務提供商時 。
Kerbs說 , 不僅要掃描硬盤驅動器以查找病毒 , 還要監控通過短信、電子郵件和語音通話進行的交互以發現潛在詐騙 , 這一點至關重要 。 深度偽造保護還可以分析音頻和視頻 , 以檢測與你交談的人是否是AI克隆體 。
七、向人而非AI傾訴
這個建議不是戰術性的 , 但很重要:雖然你可能認為與ChatGPT、Claude或Gemini談論你遇到的問題沒有害處 , 但將聊天機器人用作日記是一個滑坡 。
相反 , 打電話給好友或計劃一次見面 , 與關心你的人分享你正在經歷的事情——而不是由陌生人訓練的預測AI模型 。
八、練習(并保護)批判性思維
不要將你的思考外包給AI 。 麻省理工學院正在進行的一項研究(尚未經過同行評審)對大語言模型可能對我們的心理狀態產生不利影響進行了初步探索 , 顯示使用ChatGPT的參與者大腦中\"神經連接較弱\" 。
將AI用于低級任務 , 但將創造、思考和制定策略保留在算法之外 。
Q&A
Q1:為什么不能向AI聊天機器人分享個人敏感信息?
A:因為AI聊天機器人是\"公共環境\"而非私人對話 , 聊天記錄可能被搜索引擎索引并變得可搜索 。 而且人類律師、治療師和醫生所提供的保密保護并不適用于AI聊天機器人 。 此外 , 敏感數據可能被數據經紀人買賣 , 或被用于創建你的監控檔案和脆弱性檔案 , 最終用于向你展示超精準的廣告 。
Q2:使用AI聊天機器人會對大腦產生什么負面影響?
A:麻省理工學院正在進行的一項研究顯示 , 使用ChatGPT的參與者大腦中出現\"神經連接較弱\"的現象 。 過度依賴聊天機器人可能影響記憶保持、創造力和寫作流暢性 , 導致因不鍛煉大腦某些部分而出現長期認知退化 。 因此建議僅將AI用于低級任務 , 將創造、思考和制定策略保留給自己 。
Q3:如何防止AI聊天機器人收集過多個人數據?
A:可以采取以下措施:禁用聊天機器人的記憶功能;使用輔助電子郵件地址注冊;在設置中選擇退出訓練模式 , 防止系統根據你的輸入自我訓練;在不同的AI聊天機器人之間切換使用 , 分散數據;定期導出并查看聊天機器人存儲的個人數據;啟用雙因素認證并避免通過第三方鏈接登錄 。


    推薦閱讀