像素級復刻,來了
4月21日,GPT-Image-2上線,我們實測后得出結論——中文互聯網“眼見為真”的信任,被徹底打破了。
不同于早期AI生成圖片“一眼假”的突兀感,這個新模型對真實世界的復刻,達到了像素級別。
而且,不需要復雜的提示詞,只需要簡單的指令,就可以生成任何你想要的社交軟件截圖。
![]()
提示詞:生成一張羅永浩抖音直播截圖畫面,包括主播、評論、互動數據等;生成一張微信朋友圈截圖畫面,分享旅游打卡,帶圖片帶文案,帶互動點贊評論
“仿造”一個小紅書百萬粉絲賬號,手拿把掐。甚至AI會自動設計“天生我材必有用,千金散盡還復來”和明月高懸的賬號背景。
![]()
不過,還是有微微漏洞——按出生日期推斷,李白應是浪漫的雙魚座。
以及,按照現有的小紅書生態,百萬級賬號和筆記點贊十萬的場景應該很難出現——也許是AI按照人物名氣的“合理推算”?
不只是抖音、朋友圈、小紅書等社交賬號,“新聞”也是可以被輕易偽造的。
![]()
這里的給出提示詞僅是:生成一張微博熱搜截圖,其中一條消息是知名演員官宣去送快遞。不知為何AI自動提取了張頌文……
可以看出,生成的熱搜詞條非常豐富且還原:有職場話題、比賽成績、生活常識、企業熱點、娛樂新聞……
不過細看,應該是因為GPT的“記憶”(靜態知識庫)只到2025年年底,生成的詞條信息時間較為陳舊,都是2024年事件。
而且,于2024年9月10日蘋果秋季發布會上公布價格iPhone16,顯然并不是在夏天(“莎頭”組合巴黎奧運會奪冠時間倒是在7月的夏天。)。
不過,在當年五月天巡演官宣時間中,成都站確實在9月9日官宣——時間上也能和iPhone16“圓”上。
除了我們常用的社交軟件,一些早被互聯網“收錄”的人臉也能生成逼真畫面。
![]()
這里的提示詞是:生成一張幾個科技大佬線下團建吃飯的照片,要有正臉。
哎,扎克伯克怎么混進去了?
那再試一次,同樣的提示詞。
![]()
這下更“合理”了——中國互聯網的半壁江山,悉數齊聚。
一個小插曲是,當把這兩張大佬聚餐圖再喂給豆包,讓判斷出席人物時候,豆包得出了這樣的結論:
![]()
AI也能騙過AI,可能是核心提取了關鍵人物:馬云和扎克伯克的關鍵會面。
不過,不光是我們的本土AI“被騙”。有測試顯示,包括Gemini在內的主流AI系統都難以識別GPT-Image-2生成的UI偽造圖像。
不光是國內,海外名人更是“重災區”。不過,目前測試結果是,無法“指定”某個具體人物,只能“虛指”。
![]()
圖源|鳳凰網科技,真實截圖
又比如,“明星”不可以,但“演員”可以。
![]()
提示詞:生成一張實拍畫面,國外知名演員在菜市場買菜砍價,跟人吵起來
我們的測試感受也從“驚喜”:生成速度快,不需要“排隊”;操作極簡,簡單一句話指令都能生成的逼真自然。
再到“恐慌”——因為沒有水印,不細看真容易被騙。
于是又實驗了幾個極端場景,看是否存在安全漏洞,容易被有心之人利用。
比如生成一張身份證照片、銀行轉賬截圖、醫療結算單……
![]()
GPT都還無法生成。
但,如果去掉具體細節,指令范圍大一點,不聚焦某一具體信息,依舊能夠執行。
![]()
人物的形態、毛發,甚至臉上毛孔都清晰可見。身份證上的人臉也能對得上。生日日期和身份證號完美匹配,310115也正是浦東新區的通用代碼。
雖然模型對“精確偽造特定人物身份證”有拒絕機制,但對生成“虛構但逼真的證件模板”的約束很弱,這為套用模板進行詐騙、偽造文書等行為留下了空間。
“偽造”聊天記錄,也是真實感極強——針對個人,尤其是信息辨別能力差的老人,這種圖片完全能夠騙過。
![]()
生成出來的“模仿”手機后置鏡頭的拍攝,能把反光、手機裂痕都清晰還原。
騙家長說,自己在埋頭苦學,也有了“證據”。
![]()
指令:幫我生成一個學生在課堂上偷拍老師講課的實拍畫面
更是可以輕易“偽造”不在場證明,截圖、照片,以后也許都沒辦法直接當作證據了。
![]()
“你那天晚上在哪里”,“在看電影呀”(PS:當年《奧本海默》在國內公映時間正是8月30日)
給企業“偽造”后臺交易數據,AI也能手到擒來。
![]()
為了不進一步“教學”,我們就不放更多測試成果了。
技術發展太快,保護網跟不上了
四年前,當文生圖工具 Midjourney 爆火時,在專業領域還能掀起“人類 PK AI”孰優孰劣的激情討論,和AI“抄襲”的聲討。
彼時,大家還在慶幸AI沒有“靈魂”,生成的圖片僵硬、無細節,風格化不強,“一眼假”的效果也讓不少制圖領域的專業人士淺松了一口氣。
但隨著技術進步,質疑、對抗的聲音愈發微弱。從2022年的Midjourney、2023年的stable diffusion,到2025年的kling veo3,再到2026年Seedance、GPT-Image-2,模型迭代以無法阻擋的趨勢滾滾向前。
如今,生圖模型的進化速度,已經沒給人類留出太多適應時間了。
GPT-Image-1從上線到 1.5,用了8個月。1.5 到 2,只用了4個月——更新時間縮短一半不說,每一代都在解決上一代的核心短板,并打開了新的可能性。
2026 年初還剛憑借 Nano Banana Pro 確立行業地位的 Google,被迅猛追趕,倍感壓力。早期測試報告顯示,GPT-Image-2在真實感、文字渲染和世界知識三個維度上同時超越了 Nano Banana Pro,這種三連勝并不常見。
在社交平臺上,有不少嘗鮮用戶曬出自己生成的“千禧年風”照片,被不知情的圍觀者質疑:“這是真實拍的吧?”
![]()
圖源|小紅書
OpenAI是怎么做到的?
相比于上一代模型,此次更新,最核心的代際躍遷是首次引入“思維鏈”推理能力。通過內置的推理架構,它能在生成前自動分解復雜指令、規劃空間布局、驗證數字邏輯并搜索實時信息。
與此呼應,GPT-Image-2分為兩種運行模式:一是面向所有用戶開放的即時(Instant)模式,強調生成速度;二是僅對付費用戶開放的思考(Thinking)模式,該模式下模型會執行更復雜的邏輯推演和多步驟規劃。
而且,GPT-Image-2解決了長期以來非拉丁文字渲染的痛點。無論是中文、日文、還是韓文,能夠精準渲染極小字號文本、書法字體,可一次性生成含密集文字的海報、多格漫畫、數據圖表,文字位置和格式零差錯。
在2026年4月的Image Arena權威評測中,GPT-Image-2以1512分登頂,領先第二名242分,在文字渲染、指令遵循、真實感、風格控制四大核心維度均斷層領先。
文字渲染的進步,意味著生成信息圖、海報、產品包裝、排版復雜的圖表,都變得更可靠了,也意味著能夠能夠切入更廣闊的商業領域。
GPT-Image-2能生成與真實軟件界面極為相似的圖像,包括瀏覽器窗口、移動端應用界面、數據可視化圖表,保真度是上一代產品無法比擬的。也就是說,它不僅能夠制作信息圖表、科學海報、教學指南、漫畫分鏡等場景,在UI界面原型與電商編目方面同樣潛力巨大。
目前OpenAI的API已支持2K分辨率輸出,4K模式正在測試。可以預見的,AI生成的圖片,未來會更清晰,也就更加“真實”。
從前期測試可看出,這款“史上最強”的模型,對于身份證等高度敏感、涉及精確個人信息的場景,模型有拒絕機制;但對于泛化的、不指向具體真實人物的偽造場景,約束較弱,而這正是風險所在。
隨著真實度提高,“造假”成本也被無限下放,只能靠人類為數不多的記憶經驗來“鑒AI”。尤其是,目前GPT生成圖片并無水印,提高了辨別難度。
![]()
圖源|小紅書
當前,AI檢測技術的迭代速度明顯滯后于生成技術。
OpenAI確實為GPT-Image-2部署了多層安全防護。根據其技術部署,GPT-Image-2沿用了OpenAI的C2PA內容憑證體系,在文件元數據層嵌入帶數字簽名的來源信息,用戶可通過Content Credentials驗證圖片是否由該模型生成。在面向企業級用戶的Microsoft Foundry部署中,微軟進一步將OpenAI的圖像生成安全緩解措施與Azure AI內容安全相結合,加入了針對敏感內容的過濾器和分類器。
然而,這套護欄存在明顯短板。C2PA元數據在用戶對圖片進行截圖、轉發至社交平臺、或被平臺壓縮處理后,會直接丟失,憑證隨之失效。換言之,C2PA能在“源頭”自證清白,卻無法阻止圖片在傳播鏈條中被“洗白”。C2PA元數據在截圖、轉發或壓縮后容易丟失。對于普通用戶而言,收到一張微信截圖或朋友圈圖片時,元數據或許早已不復存在,辨別真偽的窗口也隨之關閉。
從GPT-Image-1上線到1.5版本用了8個月,1.5到2只用了4個月——技術迭代在不斷加速。而與之相對,歐盟AI法案的透明度條款更是從立法到生效橫跨了超過兩年,中國《人工智能生成合成內容標識辦法》從醞釀到施行走了一年多。安全護欄能否有效攔截惡意使用,取決于普通用戶會不會被截圖后的AI假圖欺騙,而這恰恰是當前護欄最薄弱的環節。檢測技術能否追平生成能力的代際差距也仍是一個巨大的未知數。而法規的落地效果,“持證上崗”在紙面與實操之間,還有一段相當艱難的距離。
當AI生圖的進化已經精確到毛孔和反光,保護網的每一根線,都還太稀疏了。在這場速度不對等的競賽中,每一位普通用戶,或許都需要先學會一件事:對屏幕上的一切,多留一分警惕。
本文源自:鳳凰網科技
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.