![]()
離職后被“蒸餾”的同事。
![]()
鄧小閑koki的視頻截圖。
2026年3月,一個名為“同事.skill”的開源項目突然走紅網(wǎng)絡(luò)。該項目只需要通過同事留在公司的飛書聊天記錄、釘釘文檔、工作郵件等數(shù)據(jù),就能訓(xùn)練克隆出一個高度模仿本人的“數(shù)字分身”,實現(xiàn)“賽博永生”。
該項目一經(jīng)發(fā)布,“煉化離職員工做AI分身”“AI復(fù)活張雪峰”等話題迅速引爆討論。GitHub上還出現(xiàn)了“前任.skill”“老板. skill”“父母.skill”等一系列模仿項目,形成“數(shù)字克隆宇宙”的現(xiàn)象。
這也引起了打工人的擔(dān)憂:自己留下的知識、經(jīng)驗等數(shù)據(jù)會不會被AI替身取代?飯碗還能否長期保住?
焦慮蔓延時,近日,一項名為“反蒸餾”的技能悄然出現(xiàn)。與“克隆”他人相反,它通過將真正重要的核心知識替換為看似正確但無實質(zhì)內(nèi)容的“正確的廢話”,來保護(hù)他人的知識不被輕易復(fù)制。4月9日,其開發(fā)者、AI產(chǎn)品經(jīng)理兼自媒體人鄧小閑接受了華西都市報、封面新聞記者的專訪,講述了背后的思考與行動。
同事.skill讓人不安
她決定“反蒸餾”
“我記得那天看到‘同事.skill’的第一反應(yīng)是心里沉了一下。”鄧小閑說,“因為它太‘合理’了。企業(yè)追求效率,AI技術(shù)剛好提供了這種可能,一切看起來順理成章。但這種順理成章本身就讓我不安。”
在她看來,這種現(xiàn)象的出現(xiàn)是技術(shù)發(fā)展的必然。“從ChatGPT爆火那天起,我就知道這類應(yīng)用遲早會出現(xiàn)。技術(shù)總是先于倫理抵達(dá)現(xiàn)場,這是規(guī)律。”在同事.skill項目爆火后,鄧小閑等待了兩三天,期待有人站出來做點(diǎn)什么,但最終無人行動。“如果我能做點(diǎn)什么,卻沒有做,我會瞧不起自己。”于是,她決定開發(fā)“反蒸餾”程序。
對于員工“蒸餾”現(xiàn)象是否普遍,鄧小閑有獨(dú)到的觀察:“目前公開做這件事的大公司不多,但我不認(rèn)為這意味著現(xiàn)象不普遍。恰恰相反,正是因為它敏感,所以被藏起來了。”
那么,“反蒸餾”反抗的究竟是什么?鄧小閑認(rèn)為,這首先是一個實用的數(shù)字自衛(wèi)技術(shù),這是底線。但它的意義遠(yuǎn)不止于此,“它同時是實用的技術(shù)工具——保護(hù)當(dāng)下的自己;帶有抗議性質(zhì)的表達(dá)——對‘?dāng)?shù)據(jù)即資產(chǎn)’邏輯的質(zhì)疑;面向未來的社會實驗——我們在測試一種可能性,就是個體能否在技術(shù)洪流中保持某種邊界。這三種身份不矛盾。好的技術(shù)應(yīng)該同時是工具、表達(dá)和實驗。”
如數(shù)字分身產(chǎn)生經(jīng)濟(jì)收益
原型人物應(yīng)獲得分成
如果“克隆員工”的技術(shù)成熟,公司頂尖員工也會被替代嗎?鄧小閑的回答很直接:“這不是‘會不會’,而是‘什么時候’。技術(shù)不會挑人,今天它能復(fù)制普通員工,明天就能復(fù)制專家。當(dāng)AI可以24小時工作、不喊累、不離職、不漲薪時,‘頂尖’就不再是職業(yè)護(hù)身符。”
“但我不認(rèn)為人只能被動接受。我們可以主動尋找應(yīng)對的方式。更關(guān)鍵的是:被替代之后呢?如果人活著的價值只等于勞動產(chǎn)出,那‘反蒸餾’也只是拖延時間。真正的出路或許是,社會需要重新定義‘人的價值’——不應(yīng)只由生產(chǎn)力來決定。”
她特別提到,如果數(shù)字分身產(chǎn)生了經(jīng)濟(jì)收益,原型人物理應(yīng)獲得分成。“比例可以談,但‘零分成’是不合理的。更進(jìn)一步,個人應(yīng)當(dāng)有‘被遺忘權(quán)’——可以隨時要求刪除自己的數(shù)據(jù)、停掉數(shù)字分身。這不只是錢的問題,更是尊嚴(yán)。”
“數(shù)字人”不是不能做
而是要明確邊界
當(dāng)被問及更擔(dān)心大公司壟斷還是普通人濫用時,鄧小閑表示兩者都擔(dān)心,但大公司的系統(tǒng)化風(fēng)險更緊迫,“一旦有巨頭大規(guī)模‘克隆’員工并實現(xiàn)降本增效,其他公司很可能被迫跟進(jìn)。結(jié)果就是招聘時看‘這人的數(shù)據(jù)好不好提取’,晉升時考慮‘這崗位能不能被AI替代’。人的價值會被重新定義為‘?dāng)?shù)據(jù)有多少、多容易被替代’。這種系統(tǒng)性的影響,比個人濫用更難應(yīng)對。”
鄧小閑坦言,自己也曾被請求開發(fā)更強(qiáng)大的AI工具。“有人想復(fù)制已經(jīng)分手的戀人,讓那個數(shù)字分身繼續(xù)陪伴自己。有人想復(fù)制去世的親人,讓數(shù)字版的奶奶能繼續(xù)給孩子講故事。還有人想做自己的數(shù)字分身,24小時替自己工作、回消息、參加會議。”
“這些我不反對,甚至覺得有意義。所以問題不是‘能不能做數(shù)字人’,而是在什么邊界條件下可以做。也許倫理邊界本身會隨社會共識移動。”至于如何平衡倫理壓力,她表示:“技術(shù)權(quán)力是真實的,倫理壓力也是真實的,而我還在學(xué)習(xí)如何與這種復(fù)雜性共處。”
律師說法
未經(jīng)同意復(fù)制他人
已踩法律紅線
對于同事.skill及衍生的“數(shù)字分身”現(xiàn)象,陜西恒達(dá)律師事務(wù)所高級合伙人趙良善律師指出,該技術(shù)最根本的問題是嚴(yán)重違反個人信息保護(hù)法律。
他解釋,飛書聊天、工作郵件等內(nèi)容都屬于法律保護(hù)的個人信息,根據(jù)個人信息保護(hù)法,處理個人信息必須獲得個人明確、具體的同意,且不得超出原先說明的范圍。如果該技術(shù)未經(jīng)允許擅自抓取和使用員工數(shù)據(jù),就屬于違法收集和使用,情節(jié)嚴(yán)重的可能構(gòu)成侵犯公民個人信息罪。
趙良善說,制作AI分身涉及對他人肖像、聲音、表達(dá)習(xí)慣的復(fù)制,這直接觸及民法典中人格權(quán)的保護(hù)范圍。未經(jīng)允許制作和使用他人肖像、姓名都是侵權(quán)。而將一個人的思維方式、決策邏輯做成“可使用的工具”,更是對人格的物化,有損人的尊嚴(yán)。如果AI分身的言論導(dǎo)致本人社會評價降低,還涉及名譽(yù)侵權(quán)。
“‘?dāng)?shù)字分身’看似是技術(shù)產(chǎn)物,但它直接挑戰(zhàn)了‘?dāng)?shù)據(jù)屬于誰’的基本問題。在缺乏授權(quán)、沒有標(biāo)識、不可撤回的情況下,這類應(yīng)用實際上是把人的數(shù)字痕跡變?yōu)榭呻S意使用的資產(chǎn)。從社會治理看,技術(shù)不應(yīng)凌駕于法律與倫理之上,我們需要建立包括法規(guī)、技術(shù)標(biāo)準(zhǔn)、倫理約束在內(nèi)的多元治理體系。”趙良善說。 華西都市報-封面新聞記者 陳彥霏
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.