![]()
某影視傳媒公司“官宣”的AI數字演員。視頻截圖
□中國婦女報全媒體記者黃婷
隨著AI技術在影視領域的快速應用,AI演員面部侵權風波接連上演。從AI短劇角色疑似使用明星面部形象,到影視公司AI數字藝人被指撞臉多位真人演員,再到北京互聯網法院認定AI換臉某演員的短劇構成肖像權侵權,系列事件引發全網熱議。
侵權認定標準為“可識別性”
3月18日,上海一家影視傳媒公司發布視頻,“官宣”簽約秦凌岳、林汐顏兩位AI數字藝人,開通實名制社交媒體賬號并宣稱其參演的AI劇集即將上線,引發廣泛關注。然而,全網熱議焦點集中在兩位AI數字藝人外貌“和多位明星撞臉”,有網友稱其為“人山人海”臉。這樣的“撞臉”是否侵犯肖像權?
“AI面部侵權的認定標準為‘可識別性’,只要技術生成的內容能讓公眾穩定識別出特定自然人,未經許可的使用就可能構成侵權。”北京市中盾律師事務所執行主任、高級合伙人尹超表示,民法典第一千零一十九條明確禁止“利用信息技術手段偽造”等方式侵害肖像權,即便AI生成形象并非直接復制原素材,只要具備了可識別性(即公眾一看便知是誰),未經許可的制作、使用面部特征的行為即構成侵權。“人臉信息屬于民法典第一千零三十四條和個人信息保護法第二十八條規定的生物識別信息,是典型的敏感個人信息,處理此類信息必須取得個人的單獨同意。”尹超說。
在京師(全國)刑事專業委員會理事、律師趙文捷看來,多位明星“被撞臉”,本質上是對民法典第一千零一十八條“可識別性”原則的挑戰——法律不關心圖像是否由代碼生成,只關心公眾是否會產生明確關聯聯想。即使制作方聲稱“隨機生成”,只要觀眾能一眼認出明星特征,侵權即成立。
3月20日,北京互聯網法院通報一起因AI換臉短劇“神似”演員迪麗熱巴而引發網絡熱議的肖像權糾紛案。法院認定,短劇制作方擅自使用深度合成技術生成與某演員高度相似的形象,侵害其肖像權;短劇播出方未盡合理審查義務,同樣承擔相應責任。
“該案是短劇領域AI換臉侵權的標桿性判決。”尹超認為,該案在司法層面確定了“可識別性”作為AI肖像權侵權的核心認定標準,合理分配舉證責任,破解了AI侵權舉證難的痛點,填補了類案裁判空白;在行業層面否定了短劇用AI換臉規避授權成本的潛規則,劃定技術合規紅線,倒逼制作方與平臺完善事前合規機制;在社會層面則強化了數字時代人格權的司法保護,為公眾維權提供了清晰指引,明確AI創作行為及其后果絕非“無拘無束”。
“值得注意的是,肖像權的保護不僅限于完整人臉,聲音同樣受到法律保護。”趙文捷補充道,去年全國首例“AI聲音侵權案”明確,如果AI合成的聲音能讓公眾通過音色、語調聯想到特定配音演員,同樣可能涉嫌侵權,侵權方需承擔相應賠償責任。
AI撞臉并非只有制作方需擔責
如果認定構成侵權,責任該由誰來擔?
趙文捷表示,AI短劇撞臉侵權風波中,并非只有制作方需要擔責,平臺方、技術提供方作為產業鏈關鍵環節,同樣肩負著合規義務,一旦缺位,就可能承擔相應法律責任。
在具體責任劃分上,尹超表示,制作方是直接侵權主體,承擔停止侵害、賠償損失等民事責任,情節嚴重的需承擔行政、刑事責任;技術平臺誘導侵權或明知侵權未處置的,與侵權人承擔連帶責任,同時需履行算法備案、內容標識等法定合規義務;傳播平臺適用“避風港規則”——接到合格侵權通知未及時采取必要措施的,對損害擴大部分承擔責任,若平臺知道或應當知道侵權未制止,則觸及“紅旗原則”,可能需承擔全部責任。
盡管AI肖像侵權的責任主體已明確,但實際整治過程中還存在不少難點。“核心難點集中在技術、監管、舉證三大層面。”趙文捷認為,AI生成形象的技術門檻持續降低,且通常并非直接復制真人照片,而是通過算法融合拼接生成,這使得侵權行為難以從源頭識別與避免。同時,侵權行為跨平臺、跨地域傳播,存在“先傳播后發現”的滯后性,而且制作方、平臺方、技術提供方責任邊界模糊,協同監管較難實現。此外,權利人需證明AI形象具有“可識別性”、侵權行為存在及自身確有損失。但AI技術的介入使得“可識別性”的認定變得更加主觀,AI生成的臉,可能既像A又像B,或者在不同語境下引發不同聯想。
在AI撞臉和AI換臉的行為表征和異同點,以及法律責任是否相同方面,尹超表示,二者核心侵權判定邏輯一致,均以可識別性為核心標準,核心差異在于行為方式與舉證標準:AI換臉是對他人肖像直接替換、拼接的深度偽造行為,侵權行為直接,主觀惡意易認定;AI撞臉是擬合生成高度相似數字人,無直接素材拼接,是否構成近似,以及行為人是否存在主觀故意或過失,將影響賠償責任的認定及賠償數額,因而舉證標準更嚴格。
“二者若被認定構成侵權,承擔的法律責任類型差別不大;個案中會根據行為惡意程度、損害后果、傳播范圍等,對責任承擔比例、賠償數額作出差異化認定。”尹超提到,從司法實踐與責任承擔的實操層面來看,同等傳播范圍、侵權情節下,AI換臉行為的違法后果通常更重。
趙文捷表示,國內AI換臉相關侵權案例已有多起,權利人維權時通常會從著作權、肖像權兩個核心角度主張權利;而新出現的、通過算法融合生成形象進而“撞臉”現實人物的情況,維權難度相對更大。
筑牢AI時代肖像權保護防線
明確侵權差異與責任劃分后,如何整治AI肖像侵權亂象、保障權利人合法權益,成為亟待解決的重要問題。
尹超表示,對侵權行為的整治需構建“事前合規指引+事中技術攔截+事后懲戒救濟”的閉環體系,壓實平臺主體責任,強化多部門聯合監管,完善行業自律與司法兜底。
趙文捷建議將“原創優先+平臺前置審核+技術合規設計”作為行業合規生存指南,即開發具有獨立特征的AI角色,避免對真人特征的拼接模仿;建立AI形象比對庫,攔截高風險內容;工具方引入“肖像權保護模塊”,從源頭降低侵權可能。
如果認為AI數字藝人的形象侵犯了自身肖像權,該如何維權?
尹超表示,權利人應立即對侵權內容、發布賬號信息、發布鏈接、傳播數據、獲利情況等內容進行完整截圖、錄屏,優先通過公證處進行證據保全公證。并向傳播平臺發送包含權利人身份證明、權屬證明、侵權內容和證據、處置要求的通知,要求平臺立即下架、屏蔽侵權內容;同時向侵權制作方、發布者、AI數字運營方發送《律師函》,責令其立即停止侵權行為。
此外,針對侵權內容的性質,權利人可向國家網信辦舉報中心、屬地網信部門舉報違法違規行為。若侵權內容涉及誹謗、詐騙、制作傳播淫穢物品、侵犯公民個人信息等違法行為,立即向屬地公安機關報案;若用于虛假商業宣傳、不正當競爭,向屬地市場監督管理部門舉報,通過行政監管手段快速處置侵權行為。“經協商未果的,權利人可向被告住所地、侵權行為實施地、侵權結果發生地(含原告住所地)的人民法院提起民事訴訟。”尹超表示。
趙文捷特別提到,明星作為公眾人物,侵權行為更易被發現,普通人的侵權風險真實存在且日益凸顯,權益受損往往更隱蔽,“比如面部信息被用于小眾AI短劇、虛假宣傳甚至電信詐騙等場景”。
她認為,降低風險可從事前防范、事中應對兩方面著手:事前做好信息保護,不隨意在非正規平臺上傳高清人臉照、視頻,拒絕不明App的人臉采集,特別是有些免費的換臉視頻或圖片的生成游戲,如果發現自身肖像被AI盜用后要及時固定證據。“只有當普通人也能像明星一樣‘發現即能維權、維權即有效果’,AI技術的濫用才能真正得到遏制。”趙文捷說。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.