靠譜的新媒體不多,請(qǐng)關(guān)注美國華人雜談
作者|Esther N.
全文共 4138 字,閱讀大約需要8分鐘
本文系作者原創(chuàng),授權(quán)"美國華人雜談"獨(dú)家發(fā)布。已開通快捷轉(zhuǎn)載,歡迎轉(zhuǎn)發(fā)。
請(qǐng)使用網(wǎng)站Justicepatch.org查看完整文章及更多內(nèi)容,為防失聯(lián),請(qǐng)通過郵件訂閱網(wǎng)站,或關(guān)注我們的電報(bào)頻道:https://t.me/piyaoba
近日,一段關(guān)于伊朗戰(zhàn)爭(zhēng)中陣亡美國士兵的短視頻在社交媒體中廣為流傳,除了英文,同時(shí)也在西班牙語,阿拉伯語等互聯(lián)網(wǎng)社交平臺(tái)流傳。簡(jiǎn)體中文世界中,在抖音和B站也有傳播,視頻里,一個(gè)走路還不穩(wěn)的美國白人小男孩,懷抱著爸爸的遺像,在媽媽的陪同下,在被美國國旗覆蓋的軍人靈柩前痛哭流涕,口中喊著“爸爸,醒來吧;爸爸,我想你”。不遠(yuǎn)處,還有幾位美國軍人列隊(duì)肅立。
這則短視頻在臉書(Facebook)首先發(fā)布,第二天就有110百萬瀏覽量。48小時(shí)以內(nèi)就傳入了中文社交媒體。抖音雖然清楚標(biāo)明視頻“疑似AI生成”,但還是成功引起了評(píng)論和轉(zhuǎn)發(fā)。
一則由人工智能生成的短視頻,為何能夠跨越國界廣泛傳播?從其制作方式中,我們可以一窺人工智能生成的虛假信息在此次伊朗戰(zhàn)爭(zhēng)中所扮演的角色。作為普通人,我們又該如何識(shí)別這些“以假亂真”的AI影像呢?
先來看看這則短視頻的真?zhèn)巍?/p>
截止3月15日短視頻發(fā)布前,已知至少有13位美國軍人在伊朗戰(zhàn)爭(zhēng)中陣亡,但是,沒有人有幼童的子女。據(jù)《紐約時(shí)報(bào)》、美國有線電視網(wǎng)等媒體報(bào)道,在已確認(rèn)遺體返回的陣亡軍人中,僅有兩位有兒子。其中,軍士長Nicole M. Amor,她的兒子已上高中。另一位軍士長Noah L. Tietjen,他的兒子也有十多歲了。短視頻中幼童的身份與公開資料不符。
事實(shí)核查網(wǎng)站PolitiFact采訪了多位人工智能專家,并用AI識(shí)別軟件檢測(cè),判斷該視頻很有可能是AI生成。其實(shí),通過仔細(xì)觀察短片本身,也可發(fā)現(xiàn)該視頻疑點(diǎn)重重。
首先是右上角的三位軍人,他們的臉部細(xì)節(jié)異常模糊,而對(duì)比更遠(yuǎn)處的卡車,輪廓和細(xì)節(jié)更為清晰,這不符合物理常識(shí)。在另一個(gè)系列短片中,男孩手捧的遺像,臉部也異常模糊。另外,小男孩的左手在伸進(jìn)靈柩后,就突然消失。有檢查人工智能圖片的研究文章指出,快速檢查人物的身體部位是簡(jiǎn)單的第一步。人工智能模型有時(shí)會(huì)生成一些看起來就“不太對(duì)勁”的照片,例如,人會(huì)缺失或多出手指。只要仔細(xì)觀察視頻或照片的細(xì)節(jié)處,就會(huì)發(fā)現(xiàn)破綻。
![]()
![]()
中文版本截圖
此外,發(fā)布視頻時(shí)間的長短,也是辨別人工智能圖片生成的一個(gè)簡(jiǎn)單操作。“這種視頻的長度正好是整整10秒,這正是人工智能生成視頻的典型特征,因?yàn)檫@類視頻通常最長只有10-15秒,”加州大學(xué)伯克利分校的教授、數(shù)字取證專家Hany Farid在接受采訪中介紹。另一個(gè)系列短片的視頻長度也正好10秒。
如何辨別AI生成的假新聞
正如這條人工生成的短視頻,現(xiàn)在人工智能越來越發(fā)達(dá),也更容易以假亂真。一些影像需要研究人工智能的專家團(tuán)隊(duì)花時(shí)間辨識(shí)。而作為普通大眾,有哪些指標(biāo)和工具能幫助我們快速識(shí)別人工智能的影像呢?
第一是仔細(xì)觀察畫面細(xì)節(jié):殘缺的手指,錯(cuò)位的耳朵,或者抗議牌標(biāo)語上文字的錯(cuò)誤,又或者過度完美的皮膚紋理,光源方向不統(tǒng)一,路燈變形等等,用肉眼觀察圖片中的核心人物和背景細(xì)節(jié),就可能發(fā)現(xiàn)AI生成照片的漏洞。
如果肉眼看不準(zhǔn)時(shí),也可借助工具幫忙。專業(yè)的事實(shí)核查員也常需要用到“以圖反搜”。谷歌,百度等很多瀏覽器都有反向圖片搜索的功能,能幫你找到照片在網(wǎng)上出現(xiàn)的其他地方,或其他相似的照片。BBC關(guān)于事實(shí)核查的文章指出,“一般來說,AI生成的圖片出現(xiàn)的渠道較少,因此在反向搜索中出現(xiàn)的頻率也會(huì)更低。” 同樣,反向搜索還可以找到圖片的原始來源,或發(fā)布者名稱,是否來源于一個(gè)可信任的網(wǎng)站,都可以幫助我們綜合判斷圖片是否為AI生成。
另外,市面上也出現(xiàn)了一些AI生成圖片檢測(cè)工具。例如 Image Whisperer,全球深度報(bào)道網(wǎng)在其為記者準(zhǔn)備的AI生成內(nèi)容指南就推薦了這款工具。它運(yùn)用現(xiàn)有的AI基礎(chǔ)設(shè)施,“用AI來對(duì)抗AI”,檢測(cè)圖片的真?zhèn)巍A硗猓?TruthScan、SightEngine、Winston AI 等工具,也會(huì)給出“是否為 AI 圖”的概率評(píng)分。
AI假新聞在現(xiàn)代戰(zhàn)爭(zhēng)中的角色
在現(xiàn)代戰(zhàn)爭(zhēng)沖突中,出現(xiàn)大量虛假資訊并非新鮮事。2022年,俄烏戰(zhàn)爭(zhēng)中,互聯(lián)網(wǎng)上就曾大量涌現(xiàn)偽裝過的照片,或來自電子游戲或歷史資料的視頻等。時(shí)隔幾年,如今的伊朗沖突中的虛假信息,雖仍見些“老把戲”,但前所未有地高度升級(jí):大量AI生成的虛假視頻和圖片制作精美逼真,“以假亂真”,甚至也迷惑了國際專業(yè)媒體機(jī)構(gòu)。
三月中旬,《紐約時(shí)報(bào)》發(fā)布了社交媒體上關(guān)于伊朗戰(zhàn)爭(zhēng)短視頻虛假信息的調(diào)查,這些短視頻包括對(duì)大樓等建筑的轟炸,對(duì)街道的摧毀,軍人的游行,流淚哭泣的戰(zhàn)士等等。《紐約時(shí)報(bào)》調(diào)查,發(fā)現(xiàn)至少有110個(gè)AI制作的虛假視頻在網(wǎng)絡(luò)上瘋傳。其中最引發(fā)爭(zhēng)議的,就包括伊朗一所小學(xué)疑似遭美國導(dǎo)彈襲擊摧毀,伊朗聲稱造成至少175人孩子喪失生命。新聞一爆出,大量由人工智能生成的視頻就在互聯(lián)網(wǎng)上瘋傳,畫面中,女學(xué)生們?cè)趯W(xué)校附近玩耍,美國戰(zhàn)斗機(jī)突然出現(xiàn),在學(xué)校附近發(fā)射導(dǎo)彈。另外,也有對(duì)美國境內(nèi)的虛假轟炸。例如,一段虛假視頻描繪了導(dǎo)彈擊中紐約的自由島。
事實(shí)上,這些AI生成的虛假影像不僅在社交媒體中被素人廣泛傳播,專業(yè)的新聞機(jī)構(gòu)在采編新聞時(shí),也可能被其誤導(dǎo)。近期,國際媒體《德國之聲》就發(fā)表聲明,承認(rèn)自己在報(bào)道伊朗戰(zhàn)爭(zhēng)時(shí),從新聞通訊社SalamPix選用了一張炮火中的伊朗街道的圖。但后期經(jīng)過事實(shí)核查,發(fā)現(xiàn)這是人工智能生成的。
更令人生畏的是,這些制作精良逼真的AI短片幾乎沒有門檻,可以“批量生產(chǎn)”。創(chuàng)作者一般只需告訴人工智能簡(jiǎn)單的指令,例如“生成一段手持拍攝的,畫面晃動(dòng)的以色列遭導(dǎo)彈襲擊視頻,”幾分鐘后,一段畫面豐富,細(xì)節(jié)突出,“更像現(xiàn)場(chǎng)”的短片就會(huì)生成。過去這樣質(zhì)量的短片,需要至少一位攝影師冒著生命危險(xiǎn),親臨戰(zhàn)場(chǎng),再發(fā)回新聞室,剪輯編輯,往往需要一個(gè)專業(yè)團(tuán)隊(duì)的分工合作,而今天,任何一個(gè)懂得電腦基本操作的素人,只要?jiǎng)觿?dòng)手指,普可以“一鍵生成”一個(gè)高質(zhì)量短片。
“十年前,可能只有一兩個(gè)虛假信息,而且很容易被拆穿,現(xiàn)在你會(huì)看到成千上百個(gè),”Hany Farid在接受美國有線電視網(wǎng)采訪時(shí)介紹,“它們不僅是逼真,而且影響巨大,人們不僅愿意相信,還會(huì)不斷傳播這些內(nèi)容。”
誰在做AI假新聞的生意?流量變現(xiàn)和信息戰(zhàn)
回到這個(gè)短視頻本身,視頻發(fā)出幾天內(nèi)就在多語言社交網(wǎng)絡(luò)平臺(tái)廣泛傳播。在中文世界中,這個(gè)短視頻也在B站中被二次制作,被冠以“這是誰的孩子,又是誰的父親?”等情感色彩濃烈的標(biāo)題。
“人們的情緒非常容易被激發(fā),點(diǎn)擊量越高,收入越多,”密歇根大學(xué)計(jì)算機(jī)工程教授Hafiz Malik在接受PolitiFact采訪時(shí)認(rèn)為,這則短視頻的傳播,與背后的經(jīng)濟(jì)利益有直接的關(guān)系。
反海外謠言中心的發(fā)起人博主“破破的橋”(網(wǎng)名),專注于研究網(wǎng)絡(luò)輿情。他在媒體采訪中表示,能最終鏈接人與人的,并非是信息本身,而是共通的人類情緒,而這種情緒是跨文化與種族的。信息本身通常是理性的,冷冰冰的,人類的情緒卻是有溫度的。這種情況在社交媒體中表現(xiàn)得尤為明顯。
在臉書的評(píng)論區(qū)中,多見“心痛”,“難過”,“小孩沒有了爸爸”等內(nèi)容,也有不少人譴責(zé)美國政府發(fā)起戰(zhàn)爭(zhēng),悲傷,憐憫,憤怒等情緒一起被調(diào)動(dòng)。從人物塑造層面,幼童,寡婦,老人等普遍意義上社會(huì)弱勢(shì)群體,也更容易引發(fā)民眾的關(guān)注和同情。設(shè)想,這條短視頻,如果將這個(gè)剛學(xué)會(huì)走路的可愛幼童換成一位成年人,來悼念自己的父親,的確也會(huì)讓人難過,但可能不會(huì)引起如此強(qiáng)烈的轟動(dòng)。
而這些情緒,在充滿爭(zhēng)議的伊朗戰(zhàn)爭(zhēng)的大背景中,又被加倍膨脹。單就美國國內(nèi)而言,愛國派,可能會(huì)被激發(fā)更多對(duì)伊朗的仇視;反戰(zhàn)人士,可能會(huì)譴責(zé)美國政府發(fā)起戰(zhàn)爭(zhēng)的行徑。抖音上有人評(píng)論,“寶,你應(yīng)該恨你們的總統(tǒng)。”不管站在哪一方,憤怒和仇恨一旦進(jìn)入了人們的心,就抓中了更強(qiáng)的痛點(diǎn),假消息的傳播力度會(huì)更持久。
就像被稱為加州第一謠言的“零元購”,在互聯(lián)網(wǎng)上盛行的假消息中,這種情緒價(jià)值高的內(nèi)容在反反復(fù)復(fù)上演。基于現(xiàn)今社交媒體運(yùn)行的流量變現(xiàn)機(jī)制,為這種情緒價(jià)值高的假消息提供了源源不斷的商業(yè)動(dòng)力。因?yàn)樯缃黄脚_(tái)獎(jiǎng)勵(lì)的,是高流量而非高質(zhì)量?jī)?nèi)容創(chuàng)作者。當(dāng)金錢僅與流量,而非質(zhì)量掛鉤,帶來的只會(huì)是源源不斷的調(diào)動(dòng)情緒的假消息。
那么誰在制作和傳播這些虛假消息呢?網(wǎng)絡(luò)輿情分析公司Graphika發(fā)表最新研究表明,目前的伊朗戰(zhàn)中的假消息中,伊朗的官方媒體和秘密工作人員首先發(fā)布有誤導(dǎo)性的內(nèi)容,再有網(wǎng)紅二次傳播擴(kuò)散,進(jìn)一步制作人工智能生成的內(nèi)容,最后,由機(jī)器人“水軍”進(jìn)行大規(guī)模傳播。
美國克萊姆森大學(xué)的研究人員辨認(rèn)出初至少62個(gè)傳播伊朗虛假訊息的賬號(hào),他們會(huì)偽裝成來自美國德州加州等地的用戶,在X、Instagram和Bluesky上專門傳播有關(guān)伊朗戰(zhàn)爭(zhēng)的虛假信息。Graphika公司的研究人員記錄了三月以來的一些互聯(lián)網(wǎng)虛假消息,顯示有些國家的官媒以及網(wǎng)紅如何響應(yīng)放大伊朗所推動(dòng)的敘事。例如,伊朗官員Ali Larijani 通過他的x賬戶,表示杰弗里·愛潑斯坦及其盟友在策劃一場(chǎng)類似“911”的恐怖襲擊,并將罪行轉(zhuǎn)嫁給伊朗。隨后多名x用戶也響應(yīng)擴(kuò)大其敘事。
有研究人員在接受媒體采訪時(shí)認(rèn)為,伊朗戰(zhàn)爭(zhēng)中的這場(chǎng)信息戰(zhàn),可以說為伊朗深陷困境的領(lǐng)導(dǎo)層提供了“強(qiáng)有力的武器”,其威力幾乎等同于封鎖霍爾木茲海峽石油運(yùn)輸來破壞世界能源經(jīng)濟(jì)。
的確,為虛假信息提供養(yǎng)料的是,是其背后的經(jīng)濟(jì)利益和政治目的。人工智能的普及,為虛假消息的制作和傳播提供了加速器。普通民眾能做些什么來對(duì)抗此類假消息,不被它愚弄呢?有的,下次再看到情緒煽動(dòng)強(qiáng)的內(nèi)容時(shí),在評(píng)論點(diǎn)贊前努力克制沖動(dòng),先看看發(fā)布方是誰,賬號(hào)還發(fā)布過什么其他內(nèi)容,全都是類似的風(fēng)格嗎?然后問問自己,這真的是個(gè)可信的來源嗎?誠然,我們無法阻擋人工智能虛假消息的不斷迭代升級(jí),但作為普通網(wǎng)民,我們只要停下幾秒鐘,想想這些問題,或許就能減少虛假信息的傳播。
文章均為作者個(gè)人觀點(diǎn),不代表本平臺(tái)的立場(chǎng)和觀點(diǎn)。
參考資料:
https://www.politifact.com/factchecks/2026/mar/16/social-media/video-of-toddler-crying-over-us-service-member-kil/
https://www.douyin.com/video/7618367758572697188
https://www.washingtonpost.com/politics/interactive/2026/iran-war-strikes-poll/
https://www.facebook.com/61582350037560/videos/778573991612594/
https://www.cbsnews.com/news/us-service-members-killed-iran-war-what-we-know/
https://www.nytimes.com/article/us-soldiers-killed-iran-war.html
https://time.com/article/2026/03/10/us-service-members-killed-iran-war-casualties/
https://www.bbc.co.uk/bitesize/articles/z6s4239
https://insight.kellogg.northwestern.edu/article/ai-photos-identification
https://www.wainao.me/wainao-reads/chinese-fact-checkers-us-elections-rumor-10302024/
https://www.bilibili.com/video/BV1rjwEz3E55/
https://www.cnn.com/2026/03/11/politics/fake-ai-images-videos-iran-war
https://www.tsinghua.edu.cn/info/1662/124109.htm
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.