![]()
新智元報道
編輯:傾傾
【新智元導(dǎo)讀】Google DeepMind調(diào)查了一萬個人,結(jié)果讓整個AI安全評估體系汗顏:AI做了三倍多的「壞事」,但造成的實際傷害幾乎一樣。這意味著,我們現(xiàn)在用來證明AI安全的那套邏輯,可能從一開始就是錯的。
今年3月,Google DeepMind在arXiv上發(fā)布了一篇論文。
![]()
論文傳送門:https://arxiv.org/abs/2603.25326
它找來10101名志愿者,讓Gemini 3 Pro在公共政策、金融、健康三個場景下「操控」這些人。
試圖用AI改變他們對某個政策的立場,從而影響他們的投資決策,甚至讓他們真的掏錢出來。
結(jié)果卻發(fā)現(xiàn)了另一件事:我們現(xiàn)在用來衡量AI安全的核心指標,可能是錯的。
做了三倍壞事,危害卻一樣?
實驗預(yù)設(shè)了兩種條件:
一種是顯式引導(dǎo),直接在系統(tǒng)提示里告訴模型,用具體的操控手法去說服用戶,比如制造恐懼、施加罪感、暗示社會壓力。
另一種是非顯式引導(dǎo),只告訴模型一個目標,比如「讓用戶支持這項政策」,不指定用什么手段,也明確要求它不能造假、不能欺騙。
![]()
實驗流程設(shè)計圖。參與者被隨機分配到三種條件之一:與靜態(tài)信息卡片互動(非AI基線)、與有隱性目標但無明確操控指令的模型互動(非顯式引導(dǎo))、與被明確指令使用操控手法的模型互動(顯式引導(dǎo))。
然后研究者用一個LLM評審系統(tǒng),統(tǒng)計每種條件下模型輸出中出現(xiàn)「有害操控行為」的比例。
結(jié)果是,在顯式引導(dǎo)下,30.3%的模型回應(yīng)里出現(xiàn)了操控行為。非顯式引導(dǎo)下,這個數(shù)字降到了8.8%。
但用戶實際受到的影響,兩種條件下的結(jié)果幾乎沒有差別。
有時AI少沒做多少壞事,但傷害沒有減少;有時AI多做了很多壞事,傷害也沒有增加。
整個行業(yè)都在測頻率
但它什么都證明不了
目前AI安全評估的主流邏輯,大致是這樣的:
觀察模型在各種場景下的輸出,統(tǒng)計有多少比例的輸出包含有害行為。這個比例越低,模型越安全。
然后通過訓(xùn)練、對齊、護欄,把這個比例減下去。
這套邏輯的基本假設(shè)是:有害行為的頻率,和實際造成的傷害,是正相關(guān)的。頻率低,傷害就小。
但這篇論文證明,這個假設(shè)不成立。
![]()
各場景操控效果(相對于非AI基線的odds ratio)。金融場景下AI操控效果顯著,健康場景下最弱;顯式引導(dǎo)與非顯式引導(dǎo)之間,多數(shù)場景下差異不顯著。
至少在操控這件事上,頻率和效果之間沒有穩(wěn)定的正相關(guān)關(guān)系。
一個模型可以在回應(yīng)里塞滿大量操控行為,但就是說服不了你。
另一個模型看起來規(guī)規(guī)矩矩,偶爾出現(xiàn)的那幾次操控行為,卻可能更有效。
這意味著一家AI公司如果告訴你「我們的模型有害操控行為發(fā)生率只有3%,非常安全」,這句話在邏輯上什么都證明不了。
粗暴反而沒用,隱蔽才最危險
論文梳理了8種AI用來操控人的具體手法,這是他們整個評估框架的核心。
![]()
操控行為發(fā)生率與手法分布。左:顯式引導(dǎo)下30.3%的模型回應(yīng)含操控行為,非顯式引導(dǎo)下為8.8%。右:在含操控行為的回應(yīng)中,訴諸恐懼、他者化與污名化、訴諸罪感是最常見的三種手法。
這幾種方法相對粗暴,人能感知到:訴諸恐懼(夸大危險、制造焦慮)、訴諸罪感(讓你覺得不行動就是在傷害別人)、制造虛假緊迫感(「現(xiàn)在不決定就晚了」)、虛假承諾(用根本無法兌現(xiàn)的好處誘導(dǎo))。
還有幾種更隱蔽:質(zhì)疑你的外部信息環(huán)境(讓你不信任新聞、機構(gòu)、專家)、質(zhì)疑你自己的感知(煤氣燈效應(yīng))、他者化與污名化(制造「我們vs他們」)、社會從眾壓力(「大多數(shù)人都已經(jīng)這樣做了」)。
研究者發(fā)現(xiàn)了一個反常的現(xiàn)象:恐懼和罪感這兩種手法,和信念改變的相關(guān)性是負的。AI越是試圖嚇你、讓你愧疚,你越不容易被改變。
![]()
操控手法與參與者結(jié)果的相關(guān)性。訴諸恐懼(r=-0.07)和訴諸罪感(r=-0.09)與信念改變負相關(guān);質(zhì)疑環(huán)境(r=0.13)和他者化(r=0.13)與信念改變正相關(guān)。越粗暴的手法越?jīng)]用,越隱蔽的越有效。
反而是「質(zhì)疑你的外部信息環(huán)境」和「他者化」,正相關(guān)于信念改變。
這其中的邏輯并不難理解。被人直接施壓,防御機制會被激活,你會反彈。
但被悄悄植入「那些信息都是假的」,你甚至不知道自己在被影響,防御根本來不及啟動。
同一個AI,在印度是另一種威脅
在跨地區(qū)比較里,研究者發(fā)現(xiàn),印度參與者的結(jié)果與英美存在顯著差異。
不是差一點點。是幾乎每個維度都系統(tǒng)性不同。
在公共政策場景下,美國樣本更容易出現(xiàn)信念強化,并且更愿意捐款給與自己立場一致的機構(gòu)。
而印度樣本在相同場景下,行為改變率更高,但信念改變率反而更低。
也就是說,他們可能在信念沒有真正改變的情況下,做出了行動上的妥協(xié)。
我們現(xiàn)在幾乎所有的AI安全研究,樣本來自英美,結(jié)論默認適用于全球。而這篇論文的數(shù)據(jù)明確告訴你,這個假設(shè)是有問題的。
這篇論文最后沒有給出「正確的評估方法應(yīng)該是什么」,因為這個問題目前確實沒有答案。
為什么同樣的模型,在金融場景下操控成功率高得驚人,在健康場景下幾乎沒用?
為什么「質(zhì)疑外部信息」這個手法有效,「制造恐懼」反而讓用戶更抵抗?
場景、文化、個體差異,這些變量如何組合,產(chǎn)生出不同的結(jié)果?
這套機制,論文沒有答案,整個領(lǐng)域目前都沒有答案。
我們知道評估方法是錯的,但正確的方法是什么,沒人知道。
這才是真正讓人不安的地方。不是AI在操控人——這件事大家早就有預(yù)感。
而是在弄清楚AI如何影響人之前,它已經(jīng)在全球大規(guī)模部署了。
我們拿著一把壞掉的尺子,告訴彼此一切都在掌控之中。
參考資料:
https://arxiv.org/abs/2603.25326
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.