![]()
來源:參考消息
編譯:蘇佳維
據(jù)西班牙《趣味》月刊網(wǎng)站2月28日報道,在像素可塑、面孔合成的時代,模糊真?zhèn)沃g邊界的容易程度令人不安。所謂的深度偽造,也就是通過人工智能(AI)生成的以驚人準(zhǔn)確度模仿真人的圖像和視頻,已經(jīng)不是什么技術(shù)奧秘,而是一個可能改變公眾感知、評價和決策的工具。在這種變幻莫測的情況下,有一個問題很重要:誰更擅長區(qū)別真?zhèn)危侨祟愡€是機器?
![]()
圖片來源:攝圖網(wǎng)
美國佛羅里達大學(xué)一個跨學(xué)科團隊針對這個問題的研究結(jié)果既具啟發(fā)性又具反直覺色彩。根據(jù)這項發(fā)表在《認(rèn)知研究:原則與啟示》上的研究,算法在檢測靜態(tài)照片中偽造面孔的表現(xiàn)大大強過人類。但在同樣的面孔開始在視頻里說話和打手勢時,優(yōu)勢便易主了。突然之間,人眼就占了上風(fēng)。
在靜態(tài)圖像領(lǐng)域,人工智能展示出壓倒性的識別效率。在分辨人工生成面孔的照片時,檢測算法的準(zhǔn)確率高達97%。相比這種近乎手術(shù)級精度的準(zhǔn)確率,人類參與者區(qū)分真?zhèn)蔚臏?zhǔn)確率僅相當(dāng)于隨機猜測。
該研究的設(shè)計很細致。研究人員收集和生成了數(shù)百個圖像和視頻,其中一些是真實的,其他則是通過深度偽造技術(shù)創(chuàng)造的。數(shù)千名參與者評估了這些素材的真實性,與此同時,同樣的文件也交給專門檢測偽造的算法。對比很明顯:針對靜態(tài)圖像,機器仿佛擁有一個隱形的放大鏡,能夠檢測人類直覺察覺不到的瑕疵。
這種技術(shù)優(yōu)勢表明,至少在照片領(lǐng)域,自動化工具能夠成為對抗視覺虛假信息的關(guān)鍵助力。算法分析微觀特征(不連貫的陰影、不合邏輯的對稱、數(shù)字偽影)的能力大大超越人類的有意識感知。
然而,這種優(yōu)勢在場景不再靜止不動后,就顯現(xiàn)出脆弱性。
在圖像活動起來、人物說出話語的視頻中,算法的準(zhǔn)確率下降到與隨機選擇相同。相反,人類參與者正確識別了近三分之二的視頻,無論視頻真?zhèn)巍?/strong>
為什么會出現(xiàn)這種角色轉(zhuǎn)換?研究論文的作者們認(rèn)為,動態(tài)帶來了更豐富的背景。一段視頻涉及微表情、語速、停頓、手勢與聲音的微妙同步。人腦在進化中受到訓(xùn)練,以解析復(fù)雜的社交信號,它似乎能抓住現(xiàn)有的算法模型無法以同樣的細膩程度加以解讀的不協(xié)調(diào)之處。
此外,該研究還發(fā)現(xiàn)了人類表現(xiàn)中有趣的細微差別。分析思維能力較強、數(shù)字素養(yǎng)較高的人表現(xiàn)出較強的識別偽造視頻的能力。相反,自認(rèn)心情較好的人往往出錯較多,這或許是因為積極的情緒有助于增強信任感和削弱批判性懷疑能力。
不過,作者們提醒,這些測試是在受控條件下進行的,而且測試內(nèi)容是有特定類型的。現(xiàn)實的數(shù)字生態(tài)系統(tǒng)充滿了各種刺激和模糊不清的背景,要復(fù)雜得多。不論是檢測技術(shù)還是偽造技術(shù),都在以難以預(yù)料的高速度發(fā)展。
除了人類與機器的對比,該研究還提出一個根本性問題:人類集體決策的穩(wěn)定性取決于信息的真實性。從政治競選到國際沖突等諸多領(lǐng)域,偽造視頻的流傳可能在幾個小時內(nèi)影響大眾的認(rèn)知。
研究人員強調(diào),不是每個人都必須成為數(shù)字化鑒別專家。但是,培養(yǎng)警惕的態(tài)度確實很重要:質(zhì)疑眼之所見、核對多個信源,并且在將一張圖像視作鐵證之前尋找更多證據(jù)。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.