![]()
一項最新研究顯示,約三分之一的AI應用用戶會與聊天機器人進行極為私人的對話,這一人數規模引發了隱私安全專家的高度關注。
斯坦福大學的一項獨立研究表明,美國六大主流AI企業均會將用戶輸入數據用于模型訓練,這一做法可能使用戶隱私面臨泄露風險。專家指出,即便用戶未主動分享敏感信息,日常提問中也可能包含不愿被公開的個人數據。
專家指出,AI應用的標準化使用條款通常賦予企業將用戶對話作為訓練數據的權利。當用戶上傳文檔供AI分析時,相關文件內容同樣存在被用作訓練材料的可能。
針對這一隱患,主流AI應用均提供數據收集退出選項。用戶可在各平臺設置中手動關閉相關權限:ChatGPT用戶需進入“設置-數據控制”頁面關閉“提升模型”選項;Claude用戶可在設置頁面取消“幫助改進Claude”選項;Alexa用戶應依次點擊“設置-Alexa隱私-管理您的Alexa數據”關閉語音記錄使用權限。
值得注意的是,Meta AI已被曝出移除了用戶退出選項,成為唯一無法通過設置關閉數據收集的主流AI平臺。
該報道由9to5Mac于2026年4月18日發布。
參考鏈接:
https://9to5mac.com/2026/04/18/how-to-protect-your-privacy-by-opting-out-of-data-collection-in-popular-ai-apps-sponsored/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.