4月10日,中國國家話劇院發(fā)布聲明,有公司未經授權違法冒演話劇《青蛇》,濫用AI換臉技術欺騙觀眾,其表示將持續(xù)取證,用法律武器捍衛(wèi)合法權益。
近年來,隨著人工智能算法的快速進步,AI換臉技術在影視娛樂、社交互動等領域得到廣泛應用。從影視作品中逼真的角色替換到社交平臺上趣味化的表情包生成,技術革新為文化創(chuàng)意產業(yè)注入了強勁動力。然而,技術的“雙刃劍”效應也同步顯現,不法分子通過篡改視頻中的面部特征與聲紋數據,實施捏造名人言論、炮制誤導性信息、精準詐騙與敲詐勒索等違法犯罪活動。從消解社會信任到沖擊司法證據體系,技術濫用已由個體權益侵害演變?yōu)橄到y(tǒng)性社會問題。在此背景下,亟須從壓實平臺責任、健全法律規(guī)則、推動社會共治三方面協(xié)同發(fā)力,構建兼顧技術創(chuàng)新與風險防范的治理體系。
壓實平臺監(jiān)管責任,構建風險防控的前置屏障
網絡平臺作為AI換臉技術傳播的核心場域,其監(jiān)管能力直接影響風險防控成效。當前,部分平臺對合成內容的審核仍停留在被動響應層面。解決此問題需要推動平臺完成從“技術工具提供者”向“風險防控責任人”的角色轉變。平臺不僅要提供技術支持,還應在服務中承擔起更多的社會責任。為了有效防范和化解AI換臉技術帶來的法律風險,平臺需要從多個維度加強監(jiān)管,確保技術創(chuàng)新與風險防控并行推進。
2023年1月10日起施行的《互聯(lián)網信息服務深度合成管理規(guī)定》對平臺監(jiān)管責任提出了明確要求,特別是對信息安全和合成內容的管理作出規(guī)定。規(guī)定明確要求平臺提供者在提供服務時,應落實信息安全主體責任,通過嚴格的用戶身份認證機制,確保服務使用者的身份信息真實可查。平臺可以通過移動電話號碼、身份證件號碼等多種方式進行實名認證,避免匿名或偽造身份的用戶發(fā)布虛假或有害內容。這一措施從源頭上限制了AI換臉技術被濫用的可能性,為進一步的監(jiān)管打下了堅實基礎。
除了用戶身份認證外,平臺還需加強對合成內容的審核,結合人工與技術手段進行多層次的管理。AI換臉技術的應用產生了大量動態(tài)的內容,這些內容涵蓋了娛樂、社交等領域,可能被惡意利用,制造虛假信息甚至操控社會輿論。因此,平臺需要建立健全的審核機制,不僅對合成結果進行技術檢測,還應當定期對合成算法進行評估和審查,防止技術本身被濫用。同時,平臺應確保對違法和不良信息的及時處置,按照規(guī)定保存相關記錄,并向網信部門及時報告,從內容生成源頭到傳播過程進行全方位監(jiān)管,進而降低虛假信息的傳播風險,保障網絡安全。
完善法律規(guī)則體系,破解制度滯后的治理難題
傳統(tǒng)法律體系難以應對數字空間中行為隱蔽化、主體虛擬化、后果擴散化的新型挑戰(zhàn)。這一矛盾要求我們必須更新法律規(guī)則,以適應快速變化的技術環(huán)境。
《互聯(lián)網信息服務深度合成管理規(guī)定》雖然強調了信息安全管理、用戶身份認證、內容審核和違法信息的處理要求。但深度合成技術的創(chuàng)新速度與監(jiān)管滯后之間存在矛盾,該規(guī)定依然需要進一步細化和完善。
首先,法律應進一步明確平臺在內容生成、傳播等環(huán)節(jié)的責任,不僅要依賴事后的監(jiān)管和懲處,還應加強事前的預防性規(guī)范,確保技術應用的合法性與合規(guī)性。平臺在生成或編輯涉及公眾人物、國家安全等敏感信息時,應該加強對技術工具的審查,并對相關內容進行實時監(jiān)控和審核,避免虛假信息的傳播和惡意濫用。
其次,法律規(guī)則應當關注AI換臉技術的跨境影響和全球化治理問題,加強國內外法律協(xié)調,確保我國在全球范圍內的信息安全。深度合成技術的相關法律除了明確對違法行為的處罰,還應設立更為細致的規(guī)定,區(qū)分不同類型的違法行為,采取分類分級的治理策略,針對不同行為的風險進行有效的法律制衡。
構建社會共治格局,凝聚技術風險的防范合力
AI換臉技術的風險本質上是技術系統(tǒng)與社會系統(tǒng)復雜交互的產物,單一主體治理模式已難以應對技術風險的彌散性和跨域性特征。需突破傳統(tǒng)治理的路徑依賴,整合政府、行業(yè)、公眾三方力量,構建共建共治共享的治理生態(tài)。
在政府層面,應強化統(tǒng)籌協(xié)調功能。建立跨部門協(xié)同治理機制,整合網信、電信、公安等部門資源,形成從技術研發(fā)、內容傳播到違法處置的全鏈條監(jiān)管合力。同時,需加強國際協(xié)作,針對跨境傳播的合成內容,建立跨國聯(lián)合取證、信息共享等合作機制,應對技術風險的全球化擴散。在行業(yè)層面,需激活企業(yè)自治潛能,推動成立人工智能倫理委員會,由頭部企業(yè)、技術專家、法律學者共同制定行業(yè)技術標準,明確換臉算法的倫理紅線。建立“黑名單”共享機制,對多次違規(guī)的企業(yè)實施聯(lián)合懲戒,形成一處失信、處處受限的約束效應。此外,可鼓勵企業(yè)用技術能力反哺社會治理,例如開放偽造內容識別接口,助力監(jiān)管部門提升風險識別效率。在公眾層面,需提升社會數字素養(yǎng),通過社區(qū)宣傳、學校教育等渠道普及AI換臉技術的基本原理和風險特征,增強公眾對合成內容的辨別能力。
能否有效防范和化解AI換臉技術帶來的法律風險,是對數字時代治理能力的系統(tǒng)性考驗。為此,治理者需要超越傳統(tǒng)的“監(jiān)管—對抗”思維,轉向“共生—演化”的新型治理范式。通過平臺監(jiān)管實現技術風險的前端控制,通過法律重構建立制度適應的彈性空間,通過協(xié)同治理激活社會共治的生態(tài)潛能。
(作者:張群,系首都師范大學政法學院副教授)