凌晨兩點,一位用戶在X平臺寫下對癌癥患者的安慰。這條本該私密的情感表達,被算法精準捕獲、放大,最終成為訓(xùn)練數(shù)據(jù)的一部分。
當共情成為數(shù)據(jù)燃料
![]()
Jeff的帖子被標記、清洗、喂給模型。他的痛苦——"Stage 4 colon and liver cancer"——變成權(quán)重更新的梯度信號。
這不是技術(shù)故障,是設(shè)計選擇。
平臺的產(chǎn)品邏輯很清晰:用戶停留時長↑,廣告收入↑。情感濃度越高的內(nèi)容,互動率越高。癌癥、死亡、祈禱,這些人類最沉重的時刻,恰恰是算法眼中的高價值信號。
consent(知情同意)的系統(tǒng)性缺失
Jeff點擊"發(fā)布"時,他同意的是什么?
服務(wù)條款里 buried(深埋)的數(shù)據(jù)使用條款,不會告訴他:這條寫給妻子的安慰,可能成為某個聊天機器人的"共情訓(xùn)練樣本",被數(shù)百萬用戶調(diào)用。
更隱蔽的是情感勞動的轉(zhuǎn)移。用戶付出真實的悲傷與聯(lián)結(jié),平臺將其轉(zhuǎn)化為可量化的 engagement(參與度)指標。產(chǎn)品團隊看的是DAU,不是凌晨兩點那個無法入睡的人。
技術(shù)中立是個偽命題
有人說:工具無罪,關(guān)鍵在于使用方式。
但推薦系統(tǒng)的每一次排序,都在做價值判斷。選擇"最大化互動"而非"最小化傷害",本身就是倫理立場。當系統(tǒng)檢測到"癌癥+祈禱"的關(guān)鍵詞組合時,它選擇推送更多同類內(nèi)容——因為用戶會停留——而非提供心理援助資源。
這不是中立的代碼,是經(jīng)過計算的風險收益權(quán)衡。
我們能要求什么?
歐盟AI法案開始要求訓(xùn)練數(shù)據(jù)的來源披露,加州的立法者討論情感數(shù)據(jù)的特殊保護。但這些是事后補丁。
真正的問題是:產(chǎn)品設(shè)計的第一性原理,是否應(yīng)該把"不消費人類痛苦"寫進去?
當一條推文從私密安慰變成訓(xùn)練樣本,誰有權(quán)說"我的痛苦不賣"?
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.