細思極恐!如果有一天,你在照常生活,卻突然接到一個陌生人的信息,并且將你的個人隱私展示在了你的面前,你會是什么感覺?這就是昨天剛剛發生的一起真實事件。
![]()
事情的起因很簡單,有用戶在使用Kimi時,隨手截了一張圖進行提問。按理說,這類問題最多就是識別內容、做個簡單分析。但Kimi的表現卻突然“失控”——先是答非所問地胡亂輸出了一些內容,緊接著,毫無征兆地吐出了一整份簡歷。
更離譜的是,這份簡歷并不是AI常見的“編造文本”。它包含了完整的個人信息:真實姓名、手機號碼、郵箱地址,甚至細節到工作經歷和教育背景,看起來像是直接從某個數據庫里“拎”出來的一樣。
![]()
一開始,很多人以為這只是模型的幻覺——畢竟,大模型“胡編亂造”的情況并不少見。但很快,有人根據簡歷中的電話進行了驗證,結果令人背脊發涼:電話確實能打通,對方也確實是簡歷本人。甚至還能通過手機號添加到微信,信息完全一致。
這就不再是“AI胡說八道”的問題了,而是一個赤裸裸的隱私泄露事件。
目前傳出的消息是,Kimi方面的產品經理已經聯系到了這位當事人,正在就隱私泄露一事進行溝通與協商。雖然官方還沒有發布正式說明,但事情的嚴重性已經不言而喻。
問題的關鍵在于:這份簡歷是從哪里來的?
如果是訓練數據泄露,那意味著模型在訓練過程中吸收了未經脫敏的個人信息,并在特定條件下“復現”出來;如果是系統調用或緩存問題,那可能涉及更直接的數據安全漏洞。無論是哪一種,都指向同一個令人不安的結論——我們在與AI交互時輸入的、或者曾經存在于某些平臺上的信息,可能并沒有被妥善保護。
更值得警惕的是,這次事件并不是用戶主動“搜索某人信息”,而是在一個完全無關的提問場景下,被動接收到了他人的隱私。這種不可預測性,才是最讓人恐懼的地方。
過去我們談論隱私泄露,往往聚焦在黑客攻擊、數據庫被拖庫、APP過度收集信息等問題上。但現在,大模型的出現,讓隱私風險進入了一個新的階段:信息不再只是“被存儲”,而是可能被“重組”“生成”甚至“誤觸發輸出”。
換句話說,你的信息可能并沒有被“偷走”,但它可能在某個模型里,以你完全無法控制的方式被“再現”。
這對整個行業來說都是一次警鐘。對于普通用戶而言,也值得重新思考一個問題:我們到底在向AI交出多少信息?這些信息又會以什么方式被使用?
資料顯示,Kimi是一款由國內公司推出的AI大模型產品,主打長文本處理和對話能力,在中文語境下表現較為突出,近年來也逐漸在辦公、學習等場景中被廣泛使用。此次事件發生在其2.6版本上線前夕,也被不少用戶稱為一次“抽風時刻”。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.