以下文章來(lái)源于環(huán)球法律評(píng)論,作者李源粒
![]()
內(nèi)容提要:現(xiàn)代刑法需要回應(yīng)與控制“人工智能+犯罪”的新型風(fēng)險(xiǎn)。生成式人工智能參與的新型犯罪風(fēng)險(xiǎn)可分為兩類,一是自主生成的技術(shù)風(fēng)險(xiǎn)所導(dǎo)致的危險(xiǎn),二是濫用生成式人工智能技術(shù)實(shí)施犯罪而導(dǎo)致的危險(xiǎn),這兩類風(fēng)險(xiǎn)均包含服務(wù)提供者應(yīng)當(dāng)答責(zé)與無(wú)需答責(zé)的風(fēng)險(xiǎn)兩種情況。服務(wù)提供者的行為可能存在侵害結(jié)果發(fā)生前階段的風(fēng)險(xiǎn),以及指向多種發(fā)散性危害后果的不確定風(fēng)險(xiǎn)。刑法規(guī)范應(yīng)當(dāng)以對(duì)法益安全狀態(tài)的保護(hù)為目的,針對(duì)前階段服務(wù)提供行為的危害性構(gòu)建歸責(zé)基礎(chǔ)。在犯罪風(fēng)險(xiǎn)中,應(yīng)當(dāng)針對(duì)服務(wù)提供者前階段行為導(dǎo)致的超越允許范圍的不當(dāng)升高技術(shù)風(fēng)險(xiǎn),以及具備后繼犯罪危害性的促成他人后續(xù)濫用生成式人工智能技術(shù)實(shí)施犯罪的行為風(fēng)險(xiǎn)進(jìn)行刑事歸責(zé)。應(yīng)當(dāng)先依據(jù)具體注意義務(wù)規(guī)范通過歸責(zé)理論構(gòu)建刑事責(zé)任,未來(lái)在此基礎(chǔ)上新構(gòu)建一套完整的生成式人工智能服務(wù)提供者的答責(zé)規(guī)則體系并直接修正構(gòu)成要件層面的答責(zé)原則。
關(guān)鍵詞:生成式人工智能;刑事責(zé)任;不當(dāng)升高風(fēng)險(xiǎn);后繼犯罪
作者:李源粒,中國(guó)政法大學(xué)刑事司法學(xué)院講師。
??
2024年全國(guó)網(wǎng)絡(luò)安全標(biāo)準(zhǔn)化技術(shù)委員會(huì)發(fā)布的《人工智能安全治理框架》(下稱“《治理框架》”)中明確我國(guó)人工智能治理的基本原則是“包容審慎、確保安全”,并強(qiáng)調(diào)在鼓勵(lì)人工智能發(fā)展創(chuàng)新的同時(shí)也必須對(duì)危害國(guó)家安全、社會(huì)公共利益、公眾合法權(quán)益的風(fēng)險(xiǎn)及時(shí)采取措施。這反映出我國(guó)應(yīng)對(duì)人工智能的風(fēng)險(xiǎn)防控政策,即應(yīng)對(duì)新型技術(shù)風(fēng)險(xiǎn)進(jìn)行包容、適應(yīng)和接納,也需要約束越軌行動(dòng)來(lái)確保控制風(fēng)險(xiǎn)和維護(hù)安全。盧曼(Niklas Luhmann)認(rèn)為,法律完成了必要的功能因此才得以從整體社會(huì)環(huán)境中分出,而法律進(jìn)化的動(dòng)力亦來(lái)自于不斷增加的社會(huì)復(fù)雜性。據(jù)此,法律系統(tǒng)的回應(yīng)任務(wù)正是控制生成式人工智能所導(dǎo)致的社會(huì)風(fēng)險(xiǎn)中的有害風(fēng)險(xiǎn)部分。刑法作為國(guó)家進(jìn)行社會(huì)控制的最重要的強(qiáng)制手段,必須承擔(dān)必要的預(yù)防功能,對(duì)于造成法益侵害的嚴(yán)重犯罪風(fēng)險(xiǎn)進(jìn)行有效規(guī)制。
一、生成式人工智能社會(huì)風(fēng)險(xiǎn)對(duì)刑法歸責(zé)的現(xiàn)實(shí)挑戰(zhàn)
社會(huì)環(huán)境變化對(duì)法律系統(tǒng)提出了以風(fēng)險(xiǎn)規(guī)制為核心的制度需求。生成式人工智能蘊(yùn)含的新型技術(shù)風(fēng)險(xiǎn)是社會(huì)環(huán)境的事實(shí)性風(fēng)險(xiǎn),其會(huì)帶來(lái)持續(xù)存在的結(jié)構(gòu)性風(fēng)險(xiǎn)。在以自然語(yǔ)言實(shí)現(xiàn)的概念溝通中,根據(jù)相關(guān)研究可以得出,在概念符號(hào)系統(tǒng)內(nèi)部不可能解決何為真何為假的問題,也即生成式人工智能有能力在符號(hào)世界中實(shí)現(xiàn)自動(dòng)化生成,但不可能確保所生成內(nèi)容的真實(shí)性,必然會(huì)因技術(shù)環(huán)境而產(chǎn)生內(nèi)生性風(fēng)險(xiǎn)。同時(shí),在人與世界的交互結(jié)構(gòu)中形成了一個(gè)帶有技術(shù)自主智能性的技術(shù)環(huán)境,這使得“人是什么”和人機(jī)關(guān)系凸顯為挑戰(zhàn)哲學(xué)常識(shí)的時(shí)代難題。法律制度首先應(yīng)明確究竟需要規(guī)制哪一部分風(fēng)險(xiǎn),即區(qū)分不需回應(yīng)/需回應(yīng)的風(fēng)險(xiǎn),也是區(qū)分有益/有害、容許/不容許的風(fēng)險(xiǎn)。作為法律制裁手段的重要組成部分,刑法理應(yīng)有所擔(dān)當(dāng),并基于部門法差異化治理位階的設(shè)定,選擇最嚴(yán)重的技術(shù)風(fēng)險(xiǎn)予以規(guī)制。
在行為規(guī)范(Verhaltensnorm)中,作為構(gòu)成要件的刑法規(guī)范將特定的行為方式認(rèn)定為類型化不法。通過刑法手段,特定的行為方式被抑制;而對(duì)于特定的客觀社會(huì)條件來(lái)說是不可或缺的行為方式,也需要通過刑法來(lái)保證。對(duì)于以實(shí)現(xiàn)安全保障功能為目的的現(xiàn)代刑法規(guī)范而言,刑法的任務(wù)就是通過影響法主體的行為來(lái)消除潛在的危險(xiǎn)情景,行為規(guī)范正是對(duì)于危險(xiǎn)行為方式的類型化。此外,還需通過制裁規(guī)范來(lái)確認(rèn)刑法規(guī)范所維護(hù)的規(guī)范性期望。同時(shí),刑事歸責(zé)也必須嚴(yán)守刑法系統(tǒng)的內(nèi)在基本原則,不能僅僅對(duì)行為進(jìn)行客觀歸罪,還必須將行為存在刑法義務(wù)違反來(lái)作為歸責(zé)的正當(dāng)性基礎(chǔ),以此保障國(guó)家刑罰權(quán)的發(fā)動(dòng)不以侵害公民自由為代價(jià)。早在1992年瑞士學(xué)者就提出了歸責(zé)問題是現(xiàn)代刑法體系中根本問題的命題:在傳統(tǒng)刑法中,法益是可以清晰界定的,歸責(zé)基礎(chǔ)主要是基于單個(gè)行為人視角和個(gè)人的罪責(zé)責(zé)任,這必定會(huì)遭遇到許多新的挑戰(zhàn);但同時(shí),刑法不能喪失法治原則的基礎(chǔ),明確的法益也不能被舍棄,個(gè)人的罪責(zé)責(zé)難也不能被完全架空。因此,現(xiàn)代刑法體系中最核心的理論議題是:被束縛在傳統(tǒng)刑法歸責(zé)的基本結(jié)構(gòu)之下而又試圖有效回應(yīng)社會(huì)現(xiàn)實(shí)問題的現(xiàn)代預(yù)防性刑法系統(tǒng),必然陷入困境。如果不想承認(rèn)刑法已注定不再是促進(jìn)社會(huì)進(jìn)步的合適工具的結(jié)論,就只能修改傳統(tǒng)刑法答責(zé)性的歸責(zé)規(guī)則,使其由個(gè)人答責(zé)性的傳統(tǒng)歸責(zé)模板修正為能夠更好地回應(yīng)靈活多變的潛在風(fēng)險(xiǎn)的新歸責(zé)結(jié)構(gòu)。也即,為了實(shí)現(xiàn)有效回應(yīng)生成式人工智能的新型技術(shù)風(fēng)險(xiǎn)的目標(biāo),刑法需要以風(fēng)險(xiǎn)歸責(zé)為核心審視不法基礎(chǔ),重新構(gòu)建恰當(dāng)?shù)男淌仑?zé)任框架。
二、生成式人工智能新型犯罪風(fēng)險(xiǎn)中服務(wù)者的作用與結(jié)構(gòu)
在以風(fēng)險(xiǎn)歸責(zé)為刑事責(zé)任基礎(chǔ)的思維框架下,生成式人工智能服務(wù)提供者會(huì)參與到通過自主生成過程導(dǎo)致的風(fēng)險(xiǎn)和通過他人濫用犯罪導(dǎo)致的風(fēng)險(xiǎn)兩種類型之中。
(一)生成式人工智能新型風(fēng)險(xiǎn)的界分框架
1.超越自主生成過程正常技術(shù)風(fēng)險(xiǎn)的不允許風(fēng)險(xiǎn)
面對(duì)自主生成過程的“算法黑箱”難題,若遵循以主體概念為歸責(zé)依據(jù)的傳統(tǒng)路徑注定失敗,無(wú)法實(shí)現(xiàn)對(duì)新的社會(huì)環(huán)境風(fēng)險(xiǎn)的回應(yīng)。傳統(tǒng)的解決思路圍繞著人工智能的客觀性能而展開,以人工智能客觀性能的二元對(duì)立概念為刑事責(zé)任依據(jù)。亦即,當(dāng)智能機(jī)器人僅作為工具實(shí)施犯罪時(shí),應(yīng)對(duì)其設(shè)計(jì)者、使用者追究刑事責(zé)任;當(dāng)智能機(jī)器人自主決定并實(shí)施犯罪行為時(shí),應(yīng)獨(dú)立承擔(dān)刑事責(zé)任。關(guān)鍵在于機(jī)器人是否能夠在自主意識(shí)和意志的支配下獨(dú)立作出決策并實(shí)施行為,是否具有辨認(rèn)能力與控制能力。但是這種傳統(tǒng)思路顯然無(wú)法解決“算法黑箱”的不確定性技術(shù)風(fēng)險(xiǎn)難題。自主生成過程的新型風(fēng)險(xiǎn)超越了工具或主體的概念界定,無(wú)論由生成式人工智能自身還是由服務(wù)提供者或使用者作為責(zé)任主體,都不可能對(duì)自主生成過程的可能風(fēng)險(xiǎn)全部答責(zé),或者全部不答責(zé)。一方面,制造者、使用者和人工智能自身,都可能參與創(chuàng)設(shè)不同類型的風(fēng)險(xiǎn),可能是需要發(fā)動(dòng)刑事制裁的風(fēng)險(xiǎn),也可能是刑法允許的風(fēng)險(xiǎn)。倘若不對(duì)風(fēng)險(xiǎn)加以區(qū)分,要求人工智能作為新的主體自我答責(zé),那么就可能會(huì)出現(xiàn)全面禁止新型技術(shù)風(fēng)險(xiǎn)的倒退,或者全面放任風(fēng)險(xiǎn)的失衡;若是要求服務(wù)提供者對(duì)于人工智能承擔(dān)責(zé)任,就會(huì)導(dǎo)致把刑事責(zé)任推卸給技術(shù),或者產(chǎn)生向先行行為無(wú)限責(zé)任的滑坡。另一方面,需要刑法進(jìn)行規(guī)制的風(fēng)險(xiǎn)也可能需要對(duì)多主體共同歸責(zé),不必然對(duì)應(yīng)于某一特定主體。即便承認(rèn)人工智能的主體資格,人工智能也只能在因不可歸責(zé)于他人的行為造成損害或傷害時(shí)承擔(dān)刑事責(zé)任。也即,各種傳統(tǒng)責(zé)任主體究竟應(yīng)對(duì)哪種風(fēng)險(xiǎn)答責(zé)、應(yīng)在何種范圍內(nèi)答責(zé),并不取決于傳統(tǒng)主體身份本身。正確的思路是圍繞風(fēng)險(xiǎn)控制進(jìn)行規(guī)范性歸責(zé),得出生成式人工智能領(lǐng)域各個(gè)角色的刑事責(zé)任,再為此尋求合適的概念界定。
對(duì)此,需區(qū)分客觀技術(shù)風(fēng)險(xiǎn)的事實(shí)認(rèn)定與刑事責(zé)任的規(guī)范性歸責(zé)基礎(chǔ),從而重新界定刑事責(zé)任的邊界與框架。從事實(shí)層面來(lái)說,自主生成過程產(chǎn)生一定程度的風(fēng)險(xiǎn)是一個(gè)既定且不可改變的技術(shù)事實(shí),除非全面禁止,否則只能接受;從規(guī)范性的視角出發(fā),在必然呈現(xiàn)限度內(nèi)的客觀技術(shù)風(fēng)險(xiǎn)應(yīng)當(dāng)認(rèn)定為人工智能時(shí)代中的新型社會(huì)相當(dāng)性風(fēng)險(xiǎn)。許多現(xiàn)代技術(shù)實(shí)際上都帶有犯罪風(fēng)險(xiǎn),但因其有益社會(huì)的方面而不受規(guī)范的否定性評(píng)價(jià)。同理,人工智能不是憑空出現(xiàn)并天然可供用戶使用的,生成式人工智能服務(wù)提供者在事實(shí)上必然參與了人工智能相關(guān)風(fēng)險(xiǎn)的創(chuàng)設(shè)。但是在規(guī)范性層面上,只要其行為已經(jīng)滿足了風(fēng)險(xiǎn)控制與預(yù)防的規(guī)范性要求,服務(wù)提供者的行為就應(yīng)當(dāng)處于社會(huì)規(guī)范劃定的免責(zé)范圍內(nèi),反之則是創(chuàng)設(shè)了不允許的社會(huì)風(fēng)險(xiǎn)。易言之,刑法對(duì)生成式人工智能新型風(fēng)險(xiǎn)的規(guī)范性評(píng)價(jià)框架不應(yīng)再依據(jù)主客體二元對(duì)立概念來(lái)確定刑事責(zé)任之“有無(wú)”;應(yīng)當(dāng)轉(zhuǎn)變?yōu)橐浴叭菰S技術(shù)風(fēng)險(xiǎn)”作為邊界,在需要由服務(wù)提供者來(lái)控制和預(yù)防的風(fēng)險(xiǎn)范圍內(nèi),僅針對(duì)其造成了不允許的犯罪風(fēng)險(xiǎn)的行為進(jìn)行刑事歸責(zé)。
2.生成式人工智能參與的犯罪風(fēng)險(xiǎn)類型
刑事歸責(zé)需要關(guān)注的生成式人工智能導(dǎo)致新型犯罪風(fēng)險(xiǎn)的風(fēng)險(xiǎn)源有兩種:一種是由自主生成過程的技術(shù)風(fēng)險(xiǎn)帶來(lái)的法益侵害風(fēng)險(xiǎn);另一種是使用階段中由于他人的濫用生成式人工智能技術(shù)和故意犯罪行為導(dǎo)致的法益侵害風(fēng)險(xiǎn)。這兩種風(fēng)險(xiǎn)源都可能超出正常技術(shù)本身的允許風(fēng)險(xiǎn)范圍,服務(wù)提供者的行為在這兩種風(fēng)險(xiǎn)形式中也都可以導(dǎo)致或促成不允許的犯罪風(fēng)險(xiǎn)。
生成式人工智能部署后在提供服務(wù)的過程中可能直接導(dǎo)致風(fēng)險(xiǎn)。這種風(fēng)險(xiǎn)的本質(zhì)是一種失控性風(fēng)險(xiǎn)。在首例ChatGPT誹謗案中,ChatGPT捏造澳大利亞官員參與了行賄并被判入獄的情況。在另一起案件中,ChatGPT編造法學(xué)教授對(duì)學(xué)生進(jìn)行性騷擾的謠言。生成式人工智能服務(wù)產(chǎn)生的整體風(fēng)險(xiǎn)不僅包括生成式人工智能在自主生成過程中不可避免的固有內(nèi)生風(fēng)險(xiǎn),還包括服務(wù)提供者行為與防控義務(wù)對(duì)風(fēng)險(xiǎn)的影響。一方面,生成式人工智能因機(jī)器幻覺而產(chǎn)生的事實(shí)性錯(cuò)誤或推理上的錯(cuò)誤無(wú)法在技術(shù)層面得到有效修正。新型風(fēng)險(xiǎn)主要源于大語(yǔ)言模型的涌現(xiàn)能力,其智能涌現(xiàn)環(huán)節(jié)是不確定的,是技術(shù)邏輯自身主導(dǎo)的環(huán)節(jié)。另一方面,生成式人工智能自主生成過程的技術(shù)風(fēng)險(xiǎn)程度與服務(wù)提供者的行為相關(guān),未履行謹(jǐn)慎盡職義務(wù)的服務(wù)提供者會(huì)在技術(shù)固有風(fēng)險(xiǎn)之上導(dǎo)致技術(shù)風(fēng)險(xiǎn)不當(dāng)升高。例如,生成式人工智能模型與系統(tǒng)自身參數(shù)特征會(huì)產(chǎn)生不同等級(jí)的風(fēng)險(xiǎn),此時(shí)研發(fā)與提供者履行特殊義務(wù)的情況會(huì)影響整體風(fēng)險(xiǎn)。又如,生成式人工智能模型與具體的應(yīng)用領(lǐng)域相關(guān)聯(lián)會(huì)產(chǎn)生不同類型的風(fēng)險(xiǎn),此時(shí)部署者履行特殊義務(wù)的情況會(huì)影響危害結(jié)果的范圍與程度。如果發(fā)生在涉及公共利益的領(lǐng)域,相關(guān)法益侵害行為可能造成對(duì)公共安全及個(gè)人基本權(quán)利的高風(fēng)險(xiǎn),生成大量虛假信息操縱輿論,可能產(chǎn)生重大政治影響并危害國(guó)家意識(shí)形態(tài)安全。顯然,僅在失控性風(fēng)險(xiǎn)的后一種情形中才可能存在對(duì)服務(wù)提供者的歸責(zé)問題。
生成式人工智能能夠在技術(shù)上間接便利與強(qiáng)化他人的犯罪行為,提供生成式人工智能服務(wù)的行為也“參與”了他人犯罪行為,并產(chǎn)生了切實(shí)的促進(jìn)作用。這種風(fēng)險(xiǎn)本質(zhì)上是一種幫助性風(fēng)險(xiǎn),但也應(yīng)當(dāng)具體甄別。一種情況是,生成式人工智能的技術(shù)風(fēng)險(xiǎn)在危害結(jié)果發(fā)生的整體過程中存在事實(shí)上的作用,但就規(guī)范評(píng)價(jià)層面而言,犯罪風(fēng)險(xiǎn)僅歸咎于他人使用中的濫用和犯罪行為。比如,自2023年“AI元年”以來(lái),新型詐騙利用人工智能通過“換臉”和“擬聲”技術(shù)模仿受害人親朋的聲音和外貌,以此騙取受害者的信任,已經(jīng)造成了多起重大經(jīng)濟(jì)損失。即便是正常的技術(shù)風(fēng)險(xiǎn)和服務(wù)提供行為,也可能因他人的濫用和犯罪行為而同樣具有便利和促進(jìn)他人犯罪的作用,因而犯罪風(fēng)險(xiǎn)源僅是第三人犯罪行為,結(jié)果并不是允許范圍內(nèi)的技術(shù)風(fēng)險(xiǎn)或服務(wù)提供行為風(fēng)險(xiǎn)的實(shí)現(xiàn)。另一種情況是,生成式人工智能技術(shù)被他人濫用以實(shí)施犯罪行為,但是除了他人的濫用和犯罪行為服務(wù),提供者行為本身也體現(xiàn)了特殊危害性,在正常服務(wù)提供行為之外體現(xiàn)出特別的對(duì)犯罪強(qiáng)化與支持特征。比如提供惡意大模型服務(wù)。2022年下半年以來(lái),暗網(wǎng)涌現(xiàn)出一批惡意生成式人工智能大模型,不法分子基于有害語(yǔ)料庫(kù)訓(xùn)練出惡意大模型,不受原模型內(nèi)容政策的限制,專門用于非法行為。比如WormGPT專門用于生成惡意代碼、進(jìn)行網(wǎng)絡(luò)攻擊;FraudGPT提供詐騙模版、編寫欺騙性短信和釣魚網(wǎng)站代碼。顯然,僅在幫助性風(fēng)險(xiǎn)的后一種情形中服務(wù)提供者才可能會(huì)被歸責(zé)。
(二)生成式人工智能的新型風(fēng)險(xiǎn)特征與歸責(zé)結(jié)構(gòu)
1.生成式人工智能服務(wù)提供者行為的風(fēng)險(xiǎn)作用特征
對(duì)于使用生成式人工智能而導(dǎo)致法益侵害的結(jié)果而言,存在“研發(fā)大模型并提供-集成系統(tǒng)并提供-進(jìn)口、分銷-中介-部署-使用”的多環(huán)節(jié)因果鏈條。生成式人工智能的模型研發(fā)和提供處于整條鏈條的最上游,為下游系統(tǒng)提供基礎(chǔ)設(shè)施。模型可以被集成到系統(tǒng)中或成為系統(tǒng)中的一個(gè)組件,此時(shí)即可形成生成式人工智能系統(tǒng)。將模型或系統(tǒng)直接提供給部署者進(jìn)行使用,就屬于提供服務(wù),相關(guān)的開發(fā)者或者進(jìn)口者都可以被認(rèn)為是提供者,完成部署后即可將系統(tǒng)提供給自己或其他用戶使用。
在生成式人工智能使用前各環(huán)節(jié)中存在的犯罪風(fēng)險(xiǎn)對(duì)于侵害結(jié)果發(fā)生而言都是前階段的風(fēng)險(xiǎn),因此服務(wù)提供者的行為對(duì)法益侵害后果而言屬于前階段行為。生成式人工智能模型適應(yīng)各種任務(wù)的“通用性”貫穿整個(gè)生命周期的全過程,這意味著模型所生各類犯罪風(fēng)險(xiǎn)也會(huì)影響整個(gè)因果鏈條。不僅模型自身存在著自主生成過程導(dǎo)致的內(nèi)生風(fēng)險(xiǎn)問題,失控則會(huì)帶來(lái)無(wú)法避免的危險(xiǎn)傾向,上游提供的模型服務(wù)還可以“自我復(fù)制”或訓(xùn)練其他模型,進(jìn)而產(chǎn)生通用性的犯罪風(fēng)險(xiǎn),如基于ChatGPT進(jìn)一步訓(xùn)練惡意大模型。從模型與系統(tǒng)提供、進(jìn)口和分銷直到部署提供使用的階段,都存在后續(xù)被故意濫用的可能。
生成式人工智能價(jià)值鏈上前階段的潛在風(fēng)險(xiǎn)對(duì)應(yīng)發(fā)散的、多樣的后續(xù)可能產(chǎn)生犯罪結(jié)果。后續(xù)的濫用生成式人工智能技術(shù)實(shí)施犯罪的行為并非指向單一、固定、具體的特定犯罪,因此服務(wù)提供者行為的不法基礎(chǔ)難以從結(jié)果不法進(jìn)行溯及,需要更多關(guān)注行為本身的危害性特征。他人后續(xù)的故意濫用行為是發(fā)散性的,被提供與部署的模型和系統(tǒng)可以被用于各類犯罪。比如用于化學(xué)、生物、輻射和核風(fēng)險(xiǎn)方面的武器開發(fā)、設(shè)計(jì)或使用;在網(wǎng)絡(luò)攻擊方面發(fā)現(xiàn)、利用或操控漏洞;在控制物理系統(tǒng)和干擾關(guān)鍵基礎(chǔ)設(shè)施方面削弱其運(yùn)行能力,等等。自主生成技術(shù)的內(nèi)生風(fēng)險(xiǎn)也易引發(fā)侵犯知識(shí)產(chǎn)權(quán)、侵犯數(shù)據(jù)權(quán)益、傳播違法信息等后果。特定事件還可能導(dǎo)致連鎖反應(yīng),產(chǎn)生大規(guī)模的負(fù)面影響。刑法規(guī)范與其說避免針對(duì)某一特定具體結(jié)果發(fā)生的侵害風(fēng)險(xiǎn),不如說通過對(duì)前階段行為危險(xiǎn)傾向的控制和干預(yù)更有效地避免后續(xù)的發(fā)散性結(jié)果風(fēng)險(xiǎn)。
2.生成式人工智能服務(wù)提供者刑事責(zé)任的歸責(zé)結(jié)構(gòu)
“人工智能+犯罪”的模式帶來(lái)了犯罪治理的新挑戰(zhàn),其中關(guān)鍵在于,在所涉甚廣的眾多服務(wù)相關(guān)方中,如何區(qū)分正常的服務(wù)提供行為與具備應(yīng)罰不法的前階段犯罪行為。
對(duì)不當(dāng)升高的技術(shù)風(fēng)險(xiǎn)的歸責(zé)是一種過失性風(fēng)險(xiǎn)責(zé)任,但按照歸責(zé)理論難以進(jìn)行結(jié)果歸責(zé),只能以行為侵害特定法益安全狀態(tài)作為立法政策選擇處罰特定行為的歸責(zé)基礎(chǔ)。第一,模型和系統(tǒng)的研發(fā)者、提供者及中介提供者未履行謹(jǐn)慎盡職義務(wù)的行為,可能導(dǎo)致技術(shù)的使用未被有效控制在法律所要求的正常風(fēng)險(xiǎn)范圍內(nèi),進(jìn)而使得生成式人工智能的技術(shù)風(fēng)險(xiǎn)不當(dāng)升高。此時(shí),最終結(jié)果發(fā)生系疊加自主生成過程的一般技術(shù)風(fēng)險(xiǎn)而共同導(dǎo)致。這里需要關(guān)注兩種因果關(guān)聯(lián),一是前階段的未履行謹(jǐn)慎盡職義務(wù)的義務(wù)違反行為與引發(fā)了超過法允許風(fēng)險(xiǎn)范圍的升高風(fēng)險(xiǎn)之間的義務(wù)違反關(guān)聯(lián)性;二是義務(wù)違反行為導(dǎo)致的這種既有法允許的一般技術(shù)風(fēng)險(xiǎn)、又有法不允許的升高風(fēng)險(xiǎn)的狀態(tài)與最終結(jié)果實(shí)現(xiàn)之間的關(guān)聯(lián)性。第二,提供和部署者可因自身履行謹(jǐn)慎盡職義務(wù)的行為導(dǎo)致應(yīng)用風(fēng)險(xiǎn)升高從而引發(fā)特殊領(lǐng)域內(nèi)重要法益侵害危險(xiǎn)。在技術(shù)風(fēng)險(xiǎn)沒有超出一般日常風(fēng)險(xiǎn)范圍的情況下,違反法律義務(wù)進(jìn)而將生成式人工智能部署于特定領(lǐng)域的行為會(huì)開啟在該領(lǐng)域應(yīng)用中的危險(xiǎn)流程,最終可能導(dǎo)致危害結(jié)果發(fā)生。這里涉及的是結(jié)果犯的一類典型構(gòu)成要件結(jié)構(gòu),即通過某個(gè)主體的行為經(jīng)由純粹的自然因果關(guān)系獨(dú)立地引發(fā)法益侵害后果的危險(xiǎn)。法規(guī)范為了避免期待以外的結(jié)果發(fā)生,只能針對(duì)開啟此流程的行為人歸責(zé)并禁止這樣的行為方式。
對(duì)后續(xù)他人濫用生成式人工智能技術(shù)實(shí)施的犯罪的歸責(zé)是一種故意性風(fēng)險(xiǎn)責(zé)任,但按照傳統(tǒng)刑法中預(yù)備犯罪理論難以歸責(zé),需要借助后繼犯罪(Anschlie?ungsdelikt)的歸責(zé)框架。一個(gè)人的行為只有通過第三人的特定瑕疵行為才會(huì)發(fā)生法益受影響的危險(xiǎn),這種行為也被稱為促成行為。一般而言,針對(duì)過程中間介入第三人故意行為的情形,法秩序原則上應(yīng)通過限制第三人的行為自由來(lái)避免法益侵害的結(jié)果,而不是限制行為人的自由。根據(jù)信賴原則,盡管個(gè)人對(duì)結(jié)果發(fā)生亦有共同的作用,也沒有義務(wù)采取措施來(lái)應(yīng)對(duì)他人違反注意義務(wù)或故意實(shí)施的行為,但是,信賴原則也有例外。在促成行為具備特殊的危害性特征與不法基礎(chǔ)時(shí),法秩序也有必要禁止特定促成行為,此時(shí)對(duì)于行為人行為自由的限制就不再是不合比例的,而是正當(dāng)?shù)摹R虼耍邪l(fā)和提供、中介提供、部署模型與系統(tǒng)的服務(wù)者所實(shí)施的服務(wù)提供行為,不僅要在形式上符合促成行為的結(jié)構(gòu),還須具有超越允許風(fēng)險(xiǎn)的危害性并溢出社會(huì)相當(dāng)性風(fēng)險(xiǎn)的正常范圍,才可能具備歸責(zé)基礎(chǔ)。
三、以安全保障為目標(biāo)構(gòu)建
生成式人工智能服務(wù)者行為的不法基礎(chǔ)
在生成式人工智能參與的新型犯罪風(fēng)險(xiǎn)中,正常的自主生成過程的技術(shù)風(fēng)險(xiǎn)是法所允許和接納的風(fēng)險(xiǎn),超出這一范圍的風(fēng)險(xiǎn)則屬于應(yīng)受非難的可歸責(zé)風(fēng)險(xiǎn)。在兩種風(fēng)險(xiǎn)類型中,服務(wù)提供者的服務(wù)提供行為都可能帶來(lái)應(yīng)受非難的不允許風(fēng)險(xiǎn),但具體歸責(zé)基礎(chǔ)又有所不同。
(一)實(shí)質(zhì)歸責(zé)基礎(chǔ)是行為風(fēng)險(xiǎn)的危害性特征
面對(duì)人工智能時(shí)代以風(fēng)險(xiǎn)為最主要特征的社會(huì)環(huán)境,國(guó)家治理的核心目標(biāo)是控制風(fēng)險(xiǎn)和維護(hù)安全。因此,需要轉(zhuǎn)變傳統(tǒng)刑法中消極防止侵害的目的,明確以積極安全保障作為刑法規(guī)范的目的,實(shí)現(xiàn)刑法控制社會(huì)風(fēng)險(xiǎn)的功能。實(shí)際上,刑法意義上的法益侵害不僅僅局限于針對(duì)特定對(duì)象物的具體危險(xiǎn)或者已經(jīng)發(fā)生的客觀侵害結(jié)果,也包括對(duì)法益支配的安全狀態(tài)的侵害。如果將法益定義為實(shí)現(xiàn)自由人格發(fā)展的途徑,那么法益之不可侵害性的確定性就是法益保護(hù)正當(dāng)化理由中一個(gè)最重要的價(jià)值因素。立足于法益支配的安全狀態(tài),刑法規(guī)范不僅需要保護(hù)法益免于遭受實(shí)際侵害和具體危險(xiǎn),還需要保護(hù)法益處于一種免于恐懼的、可無(wú)憂支配(Sorgelosigkeit bei der Verfügung über Güter)的安全狀態(tài)。在此基礎(chǔ)上,現(xiàn)代刑法需要從聚焦于對(duì)實(shí)害和具體危險(xiǎn)的侵害報(bào)應(yīng)視角,調(diào)整為關(guān)注安全保障及控制和預(yù)防安全風(fēng)險(xiǎn)的視角,從而回應(yīng)社會(huì)現(xiàn)實(shí)需求。
以法益安全保護(hù)為目標(biāo)的刑法規(guī)范需要明確行為不法的基礎(chǔ),并與結(jié)果不法的歸責(zé)區(qū)分開來(lái)。德國(guó)學(xué)者弗里希(Wolfang Frisch)的“構(gòu)成要件該當(dāng)行為理論”圍繞制造法律上受非難之危險(xiǎn)的要求,提出需要認(rèn)定“符合構(gòu)成要件的行為”。其認(rèn)為,應(yīng)以行為本身所內(nèi)含的風(fēng)險(xiǎn)為依據(jù),與結(jié)果有無(wú)發(fā)生以及是否應(yīng)為結(jié)果的發(fā)生負(fù)責(zé)等問題切割開來(lái)審視。概言之,弗里希教授認(rèn)為歸責(zé)問題的基礎(chǔ)在于行為是否創(chuàng)設(shè)了一種應(yīng)受指責(zé)的風(fēng)險(xiǎn)(即行為歸責(zé)),以及構(gòu)成要件對(duì)行為風(fēng)險(xiǎn)進(jìn)行約束的規(guī)范性范圍應(yīng)有多大。此外,殊途同歸,“人的不法”理論在主觀歸責(zé)方面也同樣強(qiáng)調(diào)以行為危害性作為歸責(zé)基礎(chǔ)。行為規(guī)范通過創(chuàng)設(shè)一般人行動(dòng)預(yù)期的狀態(tài)而對(duì)社會(huì)的共同生活提供了不可或缺的方向指引,這種行動(dòng)預(yù)期并不是對(duì)維持社會(huì)倫理秩序的預(yù)期,而是對(duì)自己的生命、身體、財(cái)產(chǎn)等基本權(quán)不受任意侵害的預(yù)期,也就是說,創(chuàng)設(shè)行動(dòng)預(yù)期狀態(tài)的行為規(guī)范是以法益保護(hù)為指引的。這種面向?qū)?lái)的法益保護(hù)功能需要通過制裁規(guī)范的發(fā)動(dòng)才能實(shí)現(xiàn),即通過刑罰的發(fā)動(dòng)向全體國(guó)民宣告被行為人違反的規(guī)范仍是有效的,引導(dǎo)國(guó)民自覺地將該行為規(guī)范繼續(xù)作為將來(lái)的行動(dòng)指針。德國(guó)學(xué)者金德霍伊澤爾(Urs Kinderh?user)指出,法益保護(hù)不僅指保護(hù)法益免于遭受被侵害的結(jié)果,也應(yīng)包括預(yù)防性地保護(hù)法益處于一種安全狀態(tài);反之,危險(xiǎn)是指以不夠充分注意的方式在事實(shí)和價(jià)值上對(duì)此種法益合理支配的必要安全狀態(tài)的影響。因此,行為規(guī)范的類型化依據(jù)就是特定行為方式對(duì)法益安全狀態(tài)的危險(xiǎn)性,行為規(guī)范的內(nèi)容是禁止具備典型危害關(guān)聯(lián)性的行為類型。
(二)生成式人工智能技術(shù)不當(dāng)升高風(fēng)險(xiǎn)的歸責(zé)基礎(chǔ)
1.未履行義務(wù)與技術(shù)風(fēng)險(xiǎn)疊加導(dǎo)致風(fēng)險(xiǎn)不當(dāng)升高的歸責(zé)基礎(chǔ)
在行為違反注意義務(wù)的因果關(guān)系認(rèn)定上,客觀歸責(zé)理論需特別考察的歸責(zé)基礎(chǔ)是義務(wù)違反的關(guān)聯(lián)性。在行為引發(fā)了受非難的風(fēng)險(xiǎn),但也引發(fā)了允許范圍內(nèi)的日常風(fēng)險(xiǎn)時(shí),所考察的是行為導(dǎo)致了法不允許的風(fēng)險(xiǎn)狀態(tài)這一結(jié)果的實(shí)現(xiàn)流程。由行為引發(fā)的法不允許風(fēng)險(xiǎn)是否提高了結(jié)果發(fā)生的風(fēng)險(xiǎn),這種提高是否達(dá)到了重要意義的程度,對(duì)于不允許風(fēng)險(xiǎn)的實(shí)現(xiàn)問題都十分重要。如果行為人的行為中也包含法所允許的屬性和狀態(tài),并且足以對(duì)導(dǎo)致結(jié)果的因果流程進(jìn)行解釋,可能據(jù)此中斷受非難的行為風(fēng)險(xiǎn)與結(jié)果實(shí)現(xiàn)之間的因果關(guān)聯(lián)進(jìn)而排除歸責(zé)。如果行為人實(shí)施了合乎義務(wù)要求的行為還是會(huì)導(dǎo)致結(jié)果發(fā)生,便應(yīng)排除義務(wù)違反的關(guān)聯(lián)性。以模型研發(fā)和提供者的透明度告知和風(fēng)險(xiǎn)管理義務(wù)為例。《治理框架》第6.1條規(guī)定,研發(fā)者應(yīng)進(jìn)行一系列的安全評(píng)估和測(cè)試,確保價(jià)值風(fēng)險(xiǎn)、倫理風(fēng)險(xiǎn)等可控,符合法律和風(fēng)險(xiǎn)管理要求,并以適用范圍、注意事項(xiàng)或使用禁忌的形式告知下游的服務(wù)提供者和使用者。歐盟《人工智能法》(Artificial Intelligence Act)要求GPAI模型提供者也必須評(píng)估系統(tǒng)是否達(dá)到風(fēng)險(xiǎn)閾值并構(gòu)成“具有系統(tǒng)風(fēng)險(xiǎn)的人工智能模型”,并額外履行評(píng)估測(cè)試和采取降低風(fēng)險(xiǎn)措施的義務(wù)。如果未能履行風(fēng)險(xiǎn)管理義務(wù),屬于違反注意規(guī)范(Sorgfaltsnorm)的義務(wù)違反行為,進(jìn)而導(dǎo)致未能有效控制模型本身的倫理和價(jià)值風(fēng)險(xiǎn)。若最終招致如生成大量歧視性內(nèi)容、虛假信息、誘導(dǎo)自殺信息并導(dǎo)致用戶自殺、煽動(dòng)恐怖和極端主義的有害信息傳播等危害結(jié)果,就具備義務(wù)違反行為與法不允許風(fēng)險(xiǎn)直接的關(guān)聯(lián)性。
但問題是,難以區(qū)分最終的危害結(jié)果實(shí)現(xiàn)的究竟是未履行法律要求義務(wù)的不當(dāng)升高風(fēng)險(xiǎn),還是自主生成過程本身的正常技術(shù)風(fēng)險(xiǎn)。因?yàn)樵谘邪l(fā)與提供的過程中,因服務(wù)行為的義務(wù)違反性所導(dǎo)致的不當(dāng)升高風(fēng)險(xiǎn)與自主生成的一般技術(shù)風(fēng)險(xiǎn),始終是融為一體、不可分割的。通說認(rèn)為,當(dāng)無(wú)法確定是否通過符合規(guī)范的行為就能避免行為人所引發(fā)的結(jié)果時(shí),意味著無(wú)法排除合法替代行為會(huì)以“接近必然的蓋然程度”同樣導(dǎo)致結(jié)果,因而應(yīng)否定歸責(zé)。換言之,結(jié)果在合法替代行為場(chǎng)景下也很可能會(huì)發(fā)生,等于侵害注意義務(wù)沒有發(fā)生構(gòu)成要件結(jié)果。對(duì)于以存有實(shí)害結(jié)果為不法要件的犯罪而言,缺乏結(jié)果不法的可歸責(zé)性。但是,在刑事政策上規(guī)定過失實(shí)害結(jié)果犯以外的犯罪也是有意義的,需要專門處罰因重大錯(cuò)誤行為或是通過重大錯(cuò)誤行為明顯提高(對(duì)法益的)危險(xiǎn)的犯罪。歸根結(jié)底,這是刑事政策的立法選擇問題。若有必要對(duì)可以構(gòu)成重大錯(cuò)誤行為的服務(wù)提供者行為進(jìn)行處罰,需要設(shè)置特別的刑法分則規(guī)范,并以違反注意義務(wù)行為的法不允許風(fēng)險(xiǎn)作為不法基礎(chǔ);若是以現(xiàn)有刑法分則規(guī)范為基礎(chǔ),那么在服務(wù)提供者的義務(wù)違反行為與侵害具體分則規(guī)范所保護(hù)法益的結(jié)果之間缺乏歸責(zé)基礎(chǔ)。
2.違反義務(wù)在特殊領(lǐng)域?qū)е聭?yīng)用風(fēng)險(xiǎn)不當(dāng)升高的歸責(zé)基礎(chǔ)
刑法對(duì)安全的保障功能依賴于具體領(lǐng)域的結(jié)構(gòu)與需求,維護(hù)安全所依賴的必要條件與相應(yīng)的侵害方式也都取決于具體領(lǐng)域的特殊情況。因此,應(yīng)根據(jù)具體領(lǐng)域安全保障的具體需求來(lái)確定規(guī)范目的與內(nèi)容,實(shí)現(xiàn)針對(duì)特定領(lǐng)域的風(fēng)險(xiǎn)控制功能。法益指向的無(wú)憂支配的安全狀態(tài)除包括具體的客觀條件外,也包括認(rèn)知要素,即對(duì)于法益支配之未來(lái)無(wú)危險(xiǎn)性狀態(tài)的認(rèn)知獲得的保護(hù),也即盧曼所說的在時(shí)間維度上共同體成員于對(duì)規(guī)范效力能夠持續(xù)存在下去的確認(rèn)和信任。法益支配的安全狀態(tài)依賴于一系列客觀條件的滿足與具備,因而行為的危害性特征表現(xiàn)為,特定行為方式針對(duì)確保法益支配安全狀態(tài)的前提條件造成了危險(xiǎn)。行為規(guī)范的內(nèi)容就是對(duì)于具有危害性的危險(xiǎn)行為的類型化,而不需要在行為與法益侵害結(jié)果之間清晰地確定侵害關(guān)聯(lián)性。歐盟《人工智能法》中明確區(qū)分了“具有不可接受風(fēng)險(xiǎn)的人工智能系統(tǒng)”和“高風(fēng)險(xiǎn)系統(tǒng)”兩種風(fēng)險(xiǎn)類型。我國(guó)《治理框架》第6.3條也針對(duì)政府部門、關(guān)鍵基礎(chǔ)設(shè)施以及直接影響公共安全和公民生命健康安全的重點(diǎn)領(lǐng)域特別規(guī)定了安全指引規(guī)范,要求在重點(diǎn)領(lǐng)域使用人工智能時(shí),必須確保產(chǎn)品與服務(wù)的運(yùn)行基于人的授權(quán)并處于人的控制之下,避免完全依賴人工智能的決策。因不履行謹(jǐn)慎盡職義務(wù)而與一般技術(shù)風(fēng)險(xiǎn)相疊加而形成的風(fēng)險(xiǎn)不當(dāng)升高狀態(tài),對(duì)于具體的危害結(jié)果而言仍然只是一種抽象的風(fēng)險(xiǎn)。與此不同,違反謹(jǐn)慎盡職義務(wù)而部署具有高風(fēng)險(xiǎn)甚至不可接受風(fēng)險(xiǎn)的人工智能系統(tǒng),或者在具體的特殊領(lǐng)域中以不遵守安全指引規(guī)范的方式部署人工智能系統(tǒng),則直接對(duì)保障相關(guān)領(lǐng)域安全狀態(tài)的客觀前提條件造成了具體影響。
此外,在法益的安全狀態(tài)依賴于行政授權(quán)的前置法規(guī)定時(shí),刑法作為次級(jí)規(guī)范(sekund?re Norm)發(fā)揮維護(hù)法益安全狀態(tài)的功能,此時(shí)行政授權(quán)范圍內(nèi)的行為在刑法規(guī)范上就屬于可允許風(fēng)險(xiǎn),違反行政授權(quán)規(guī)定的行為就屬于破壞法益安全狀態(tài)的危險(xiǎn)性行為類型。舉例來(lái)說,在信息技術(shù)刑法領(lǐng)域,對(duì)于核心技術(shù)設(shè)備的無(wú)害性(Unsch?dlichkeit)不存在本來(lái)的信任,必須通過行政授權(quán)來(lái)奠定此種信任,此時(shí)刑法規(guī)范的目的在于發(fā)揮次級(jí)規(guī)范的功能來(lái)消除不信任,同時(shí)劃定法律的容許邊界。對(duì)以危害法益支配之主觀安全信任為危害性特征的行為類型,就實(shí)質(zhì)不法而言,刑法所禁止與處罰的是沒有有效控制危險(xiǎn)的行為,重點(diǎn)在預(yù)防危險(xiǎn)的功能性上與行政管理的前置法形成一致,而不是必須與前置法的內(nèi)容完全一致,從而避免淪為實(shí)質(zhì)的空白罪狀。歐盟《人工智能法》中的相關(guān)規(guī)定就是以授權(quán)的風(fēng)險(xiǎn)控制方式奠定人工智能領(lǐng)域的安全信任基礎(chǔ),要求在歐盟內(nèi)部市場(chǎng)自由流動(dòng)的高風(fēng)險(xiǎn)人工智能系統(tǒng)應(yīng)帶有CE合格標(biāo)志(Conformité Européenne Marking),以CE標(biāo)準(zhǔn)授權(quán)構(gòu)建高風(fēng)險(xiǎn)系統(tǒng)的安全信任。對(duì)于沒有獲得授權(quán)而提供高風(fēng)險(xiǎn)系統(tǒng)的開發(fā)者、進(jìn)口者等服務(wù)提供相關(guān)方,因其破壞了人工智能技術(shù)的安全信任而可以歸責(zé)。
對(duì)于以危害法益支配之安全狀態(tài)的客觀前提條件為危害性特征的行為類型,在客觀方面,行為方式應(yīng)直接破壞生成式人工智能應(yīng)用領(lǐng)域安全的客觀前提;在主觀方面,服務(wù)提供者至少應(yīng)具備對(duì)自身行為風(fēng)險(xiǎn)的間接故意,對(duì)一般風(fēng)險(xiǎn)不當(dāng)升高可能導(dǎo)致的發(fā)散性危害后果僅具備概括性的過失。如果服務(wù)提供者以至少間接故意的程度在完全禁止風(fēng)險(xiǎn)的監(jiān)管領(lǐng)域中提供服務(wù),或者在高風(fēng)險(xiǎn)領(lǐng)域以不允許的方式提供服務(wù),導(dǎo)致系統(tǒng)被用于刑事犯罪,那么其前階段的先行行為盡管缺乏對(duì)具體各種類危害結(jié)果的歸責(zé)關(guān)聯(lián),也動(dòng)搖了生成式人工智能應(yīng)用安全所依賴的風(fēng)險(xiǎn)等級(jí)管理的客觀條件,違反了風(fēng)險(xiǎn)領(lǐng)域和重要領(lǐng)域的生成式人工智能的安全前提,因而已具備了特殊危害性。對(duì)此可以考慮與相應(yīng)刑法規(guī)范進(jìn)行對(duì)接,設(shè)置類型化的構(gòu)成要件予以歸責(zé)。
(三)生成式人工智能技術(shù)被他人濫用的歸責(zé)基礎(chǔ)
1.前階段促成行為的歸責(zé)條件與正當(dāng)化基礎(chǔ)
刑法對(duì)前階段促成行為的處罰在傳統(tǒng)上屬于預(yù)備犯罪的結(jié)構(gòu)。法益支配的安全狀態(tài)依賴于共同體中主體間的主觀信賴,刑法通過制裁來(lái)保障規(guī)范受眾對(duì)于規(guī)范效力的信賴,而只有在行為人體現(xiàn)出明確的不遵守規(guī)范效力之意愿時(shí),制裁的發(fā)動(dòng)才是正當(dāng)?shù)摹_@種明確的不遵守規(guī)范效力意愿最強(qiáng)烈的體現(xiàn)就是故意違反規(guī)范義務(wù)。由于在前階段中這種故意的刑事責(zé)任被前置化了,侵害主觀安全的行為類型就體現(xiàn)為預(yù)備犯罪。預(yù)備犯罪的結(jié)構(gòu)在客觀方面要求預(yù)備行為已體現(xiàn)出應(yīng)罰的不法;在主觀方面要求行為應(yīng)指向一個(gè)未來(lái)會(huì)實(shí)行的特定犯罪,也即超過的主觀要素。
近些年德國(guó)學(xué)者用后繼犯罪概念來(lái)規(guī)制在前階段中對(duì)他人后續(xù)犯罪的間接性促成行為。所謂后繼犯罪,是指一個(gè)已經(jīng)完成的行為對(duì)法益尚且沒有造成侵害也沒有造成客觀危險(xiǎn),后面的另一個(gè)后繼行為人(Anschlusst?ter)可以在此基礎(chǔ)之上再關(guān)聯(lián)并實(shí)施上一個(gè)違法和侵害法益的第二行為,而后續(xù)是否真的存在第二行為人對(duì)于判斷第一行為人的刑事可罰性并不重要。與預(yù)備犯罪不同,在后繼犯罪的結(jié)構(gòu)中,前一行為人不需要知道后續(xù)他人的目標(biāo)犯罪。但問題是,后繼犯罪的結(jié)構(gòu)實(shí)際上違反了第二行為人自我答責(zé)性與信賴原則。對(duì)第一行為人以未發(fā)生的假設(shè)性后繼犯罪行為歸責(zé),其可能根本無(wú)法預(yù)見接續(xù)的犯罪行為。尤其在第一行為人實(shí)施的是較中立行為的情況下,后繼犯罪的結(jié)構(gòu)實(shí)際上是一種“獨(dú)立的無(wú)附屬性的幫助”行為,對(duì)其犯罪化必須具備嚴(yán)格的正當(dāng)性基礎(chǔ)。
德國(guó)學(xué)者沃勒斯(Wolfgang Wohlers)認(rèn)為刑法前置化保護(hù)的正當(dāng)性基礎(chǔ)也即國(guó)家刑罰權(quán)發(fā)動(dòng)的正當(dāng)性,從本質(zhì)上來(lái)說就是歸責(zé)的正當(dāng)性。他將歸責(zé)正當(dāng)性更進(jìn)一步歸結(jié)為答責(zé)領(lǐng)域界分的規(guī)范性問題,指出關(guān)鍵在于對(duì)于第一行為人的行為與獨(dú)立第二行為之間的可歸責(zé)范圍界分,并且指出,僅當(dāng)他人自我答責(zé)的行為被第一行為人預(yù)見到并作為指引其行為的因素時(shí),將第二犯罪行為歸入第一行為人的答責(zé)范圍才不違反自我答責(zé)原則,這種答責(zé)領(lǐng)域的劃分依據(jù)與標(biāo)準(zhǔn)都是規(guī)范性構(gòu)建的。其他學(xué)者也持類似觀點(diǎn),認(rèn)為僅在前階段服務(wù)提供者的前階段促成行為需要具備特殊的行為危害性和犯罪意涵(deliktische Sinnbezug)時(shí),才具備歸責(zé)基礎(chǔ)。從根本上來(lái)說,后繼犯罪結(jié)構(gòu)體現(xiàn)出來(lái)的是一種客觀和規(guī)范性的不法基礎(chǔ),更加強(qiáng)調(diào)規(guī)范性的可歸責(zé)依據(jù)與客觀上行為本身已經(jīng)具備的犯罪意涵,這明確區(qū)別于預(yù)備犯罪結(jié)構(gòu)中偏重于以主觀超過要素作為危險(xiǎn)關(guān)聯(lián)性基礎(chǔ)的路徑。
2.服務(wù)提供者前階段促成行為的歸責(zé)基礎(chǔ)
生成式人工智能前階段的潛在風(fēng)險(xiǎn)對(duì)應(yīng)發(fā)散的后續(xù)可能犯罪結(jié)果,后續(xù)的濫用犯罪行為并非指向單一、固定、具體的特定犯罪,因此難以滿足預(yù)備犯罪中行為人對(duì)于實(shí)施犯罪具備決意和對(duì)于目標(biāo)犯罪具備明知的要求,采用后繼犯罪結(jié)構(gòu)更為恰當(dāng)。具體來(lái)說,后繼犯罪的正當(dāng)化基礎(chǔ)主要分為三種,其歸責(zé)基礎(chǔ)分別來(lái)源于特殊注意規(guī)范的義務(wù)、提供對(duì)象的特殊危險(xiǎn)以及前階段行為的危害性特征。德國(guó)學(xué)者齊白(Ulrich Sieber)認(rèn)為,滿足犯罪化所需的正當(dāng)性要求包括以下情況:第一,第一行為違反了注意規(guī)范,而該注意規(guī)范的目的正是為了在具體情景中消除后繼犯罪行為出現(xiàn)的任何可能性。第二,所提供的對(duì)象僅僅(或者主要)用于犯罪或具有特別程度上的危險(xiǎn)性。第三,第一行為人的行為與后繼行為人存在特別犯罪關(guān)聯(lián)。類似地,弗里希教授也指出,在行為人的行為通過他人瑕疵行為導(dǎo)致侵害的結(jié)構(gòu)中,本不應(yīng)答責(zé)的行為人只有通過交付極易被濫用的物品、爆炸性物質(zhì)等,才被認(rèn)為制造了應(yīng)受非難且被禁止的風(fēng)險(xiǎn)。此外,如果行為人對(duì)于防止他人濫用自己讓與的物品而居于保證人地位,或者行為本身的意涵就在于促成第三人的違法行為時(shí),也應(yīng)要求其答責(zé)。德國(guó)學(xué)者普珀(Ingeborg Puppe)也認(rèn)為可以突破信賴原則的情況包括三種:義務(wù)本身就是為了防止他人違反義務(wù)或造成損害;刑法出于家長(zhǎng)主義考慮為了保護(hù)他人陷入某種危險(xiǎn)而設(shè)立了義務(wù)(如禁止麻醉藥品交易);行為人已經(jīng)察覺到了他人即將違反義務(wù)。
首先,單純違反前置法規(guī)范從而導(dǎo)致了一種可能被濫用的風(fēng)險(xiǎn)狀態(tài)并不具備充分的刑事歸責(zé)基礎(chǔ)。以違反注意規(guī)范義務(wù)作為對(duì)他人不法的可歸責(zé)基礎(chǔ)還必須施加給第一行為人一種全面的保證人義務(wù),要求其確保自己的前階段行為不存在為后續(xù)犯罪接提供促成的任何可能性。但是,生成式人工智能服務(wù)提供者研發(fā)和部署生成式人工智能基礎(chǔ)設(shè)施并對(duì)大量用戶提供服務(wù)本身不能直接推出全面保證人義務(wù),即便因違反前置法注意規(guī)范而使生成式人工智能基礎(chǔ)設(shè)施服務(wù)超出了正常允許風(fēng)險(xiǎn)的范圍,也不必然等于負(fù)有防止后續(xù)他人所有濫用犯罪的全面監(jiān)控義務(wù)。例如,多頻道網(wǎng)絡(luò)(Multi-Channel Network,MCN)機(jī)構(gòu)利用人工智能軟件生成大量謠言傳播,雖然服務(wù)提供者也對(duì)這類機(jī)構(gòu)利用人工智能生成謠言的濫用行為有技術(shù)上的助力,但本身并沒有違反任何注意規(guī)范,也不具備杜絕服務(wù)被他人濫用的保證人地位,因而不具備歸責(zé)基礎(chǔ)。又如,歐盟《人工智能法》第15條第5款規(guī)定,高風(fēng)險(xiǎn)人工智能系統(tǒng)應(yīng)具備韌性,以防未經(jīng)授權(quán)的第三方試圖利用系統(tǒng)漏洞改變其使用、輸出或性能。違反這一注意規(guī)范的研發(fā)者行為顯然導(dǎo)致了一般性的風(fēng)險(xiǎn)不當(dāng)升高,但降低被他人濫用風(fēng)險(xiǎn)的預(yù)防性前置法義務(wù)不能直接等同于對(duì)其施加防止一切第三方濫用行為和所有可能法益侵害的保證人義務(wù)。
其次,第一行為人所提供的對(duì)象本身需要具有唯一的、確定的犯罪風(fēng)險(xiǎn),一般不存在對(duì)這些特殊物品的合理合法提供與使用。在生成式人工智能的情形下,即便超越了一般可接受技術(shù)風(fēng)險(xiǎn)的邊界,生成式人工智能本身也仍然主要被合法使用,至少存在明顯的不以導(dǎo)致犯罪為導(dǎo)向的合理使用空間,而不構(gòu)成絕對(duì)的、必然的犯罪危險(xiǎn),因此服務(wù)提供者并不能因?yàn)樘峁?duì)象的特殊危險(xiǎn)性而構(gòu)成后繼犯罪。但是,如果服務(wù)提供者訓(xùn)練惡意大模型,有針對(duì)性地改變?cè)P偷氖褂谩⑤敵龌蛐阅埽蛊涑蔀橹荒芑蛑饕挥糜诜缸锏膶?duì)象,則可以被認(rèn)為是具備特別危險(xiǎn)的對(duì)象。如WormGPT和PoisonGPT,惡意大模型的研發(fā)和提供服務(wù)者使用新的應(yīng)用程序編程接口(API),突破原模型內(nèi)容政策的限制,有針對(duì)性地改變?cè)P偷氖褂谩⑤敵龌蛐阅埽瑸榉缸餃p少約束和障礙,使其用于生成惡意代碼、進(jìn)行網(wǎng)絡(luò)攻擊和制造假新聞、操縱輿論的行為。這種大模型本身就已在提供犯罪方法、進(jìn)行網(wǎng)絡(luò)攻擊、生成非法內(nèi)容等方面都具有極大的犯罪危險(xiǎn)。
最后,關(guān)于前階段行為本身可刑事歸責(zé)的犯罪意涵,齊白教授認(rèn)為,對(duì)于他人不法的可歸責(zé)基礎(chǔ)在于第一行為人和后繼行為人進(jìn)行了通謀合作,第一行為具有特殊的支持性特征,或者第一行為人能夠確實(shí)地知道他人通過自身的行為為后繼犯罪行為提供了支持。弗里希教授還從反面排除了一些不具備犯罪意涵所要求的特殊關(guān)聯(lián)性的典型情形。若在提供某一特定物品時(shí)僅存在客觀上該物品被用于犯罪的可能性,或者依據(jù)經(jīng)驗(yàn)認(rèn)為在個(gè)別情況下實(shí)施目標(biāo)犯罪概率很大,都不足以滿足犯罪意涵的要求,因?yàn)檫@樣會(huì)嚴(yán)重限制行為自由,導(dǎo)致一個(gè)普遍失信的社會(huì)形態(tài),每個(gè)人都必須持續(xù)審視他人是否具備后續(xù)犯罪行為的客觀跡象。同樣,若前階段行為人主觀上有表明第三人已決意實(shí)施某項(xiàng)犯罪行為的具體線索,也僅是“可識(shí)別的犯罪決意或犯罪傾向”,而不滿足犯罪意涵的要求,因?yàn)槭聦?shí)上也不存在判斷何時(shí)具有此種具體線索的明確標(biāo)準(zhǔn)。關(guān)鍵性判斷指標(biāo)在于,前階段行為是否超出了合法行為空間并已造成對(duì)法益觀念性侵害,前階段行為整體上必須以促成或便利目標(biāo)犯罪的實(shí)施為指向。犯罪意涵也因而可以理解為一項(xiàng)客觀和規(guī)范的判斷標(biāo)準(zhǔn),即某一行為在客觀上只能被解釋為是為了促成犯罪行為;反之,若有不可忽視的情形,即實(shí)施行為是為了追求正當(dāng)權(quán)益,且通常是出于正當(dāng)動(dòng)機(jī),則應(yīng)認(rèn)為不存在犯罪意涵。以提供惡意大模型為例,XXXGPT為用戶的僵尸網(wǎng)絡(luò)、惡意軟件、加密貨幣挖掘等多種違法項(xiàng)目提供定制服務(wù),提供者明知后續(xù)的他人特定犯罪而提供有針對(duì)性的服務(wù),與后階段行為人存在共謀。又如,如果僅是研發(fā)本身可能存在漏洞,尚不足以構(gòu)成前階段促成行為的犯罪意涵。如果是在受控環(huán)境中主動(dòng)植入模擬漏洞進(jìn)行評(píng)估和訓(xùn)練,也存在合法行為的合理解釋。但在面向生產(chǎn)或公眾提供服務(wù)的生成式人工智能中,如果研發(fā)者故意設(shè)置程序漏洞,缺乏其他合理性解釋而具備了特殊的犯罪支持性特征,使用戶可以輕易利用生成式人工智能實(shí)施違法犯罪行為的,應(yīng)當(dāng)承擔(dān)相應(yīng)的刑事責(zé)任。
對(duì)于以前階段犯罪行為為危害性特征的行為類型,在客觀方面,生成式人工智能服務(wù)本身應(yīng)體現(xiàn)出特殊危險(xiǎn),或是服務(wù)提供者的前階段行為應(yīng)獨(dú)立體現(xiàn)出可支持后續(xù)濫用犯罪的特征;在主觀方面,服務(wù)提供者對(duì)于自己為后續(xù)他人濫用犯罪創(chuàng)造了便利的促成行為本身是明知的,并且對(duì)于自己的促成行為將被他人用于進(jìn)行犯罪而不存在其他合理使用空間的針對(duì)性支持也是明知的,但對(duì)他人具體犯罪行為則無(wú)需有意圖。雖然難以認(rèn)定服務(wù)提供者對(duì)他人后續(xù)濫用犯罪存在全面性的保證人義務(wù),但如果其行為已經(jīng)超出行為自由的免責(zé)空間而體現(xiàn)出充分的犯罪意涵,也已具備后繼犯罪的歸責(zé)基礎(chǔ)。
四、人工智能治理體系
與刑事歸責(zé)的功能銜接
生成式人工智能服務(wù)提供者的刑事責(zé)任需要一套通用的答責(zé)規(guī)則為依據(jù)和參考。參考網(wǎng)絡(luò)服務(wù)提供者的刑事歸責(zé)模式,應(yīng)以答責(zé)規(guī)則作為修正刑法歸責(zé)理論之原則和結(jié)構(gòu)的預(yù)先檢驗(yàn),在構(gòu)成要件層面落實(shí)到刑法歸責(zé)理論,形成與刑事責(zé)任的功能銜接。短期來(lái)看,應(yīng)當(dāng)暫緩構(gòu)建求全責(zé)備的生成式人工智能服務(wù)提供者答責(zé)規(guī)則,著重于確定相關(guān)服務(wù)主體及義務(wù)要求,再通過刑法中歸責(zé)理論的深入研究和探求,最終實(shí)現(xiàn)準(zhǔn)確、合理、正當(dāng)?shù)男淌職w責(zé)。
(一)明確生成式人工智能服務(wù)提供者的答責(zé)體系
在前置法的法律規(guī)范體系中,對(duì)技術(shù)服務(wù)提供者的法律規(guī)則可以是對(duì)主體與義務(wù)內(nèi)容的注意規(guī)范,也可以直接劃定法定答責(zé)范圍。網(wǎng)絡(luò)服務(wù)者的答責(zé)規(guī)則在全球多個(gè)國(guó)家都有體系性的規(guī)定。例如,美國(guó)在版權(quán)法領(lǐng)域確定了各種網(wǎng)絡(luò)服務(wù)提供者的間接侵權(quán)責(zé)任。以此為基礎(chǔ),網(wǎng)絡(luò)服務(wù)者答責(zé)規(guī)則擴(kuò)展到非法內(nèi)容治理、電子商務(wù)平臺(tái)責(zé)任等其他領(lǐng)域。這一問題具有“橫剖特征”(cross-sectional character),即非法和有害信息的責(zé)任問題產(chǎn)生在民法、公法和刑法三個(gè)學(xué)科里,因而需要一個(gè)同時(shí)適用于三個(gè)法律領(lǐng)域的答責(zé)性規(guī)則(Verantwortlichkeitsregeln)。又如,德國(guó)通過《電信服務(wù)法》(Telekommunikationsgesetz,TKG)和《數(shù)字服務(wù)法》(Digitale-Dienste-Gesetz,DDG)中的責(zé)任條款,歐盟通過《數(shù)字服務(wù)法案》(Digital Service Act,DSA)中的責(zé)任條款等,對(duì)于數(shù)字服務(wù)提供者的答責(zé)性規(guī)則進(jìn)行了規(guī)定。同樣,也應(yīng)針對(duì)生成式人工智能具有不同風(fēng)險(xiǎn)控制能力的各主體設(shè)定有所差異的規(guī)范義務(wù)。
第一,作為模型和系統(tǒng)的提供者,生成式人工智能的風(fēng)險(xiǎn)源便在于其研發(fā)與提供行為,而最能有效控制和預(yù)防模型和系統(tǒng)本身及后續(xù)一系列風(fēng)險(xiǎn)的主體非提供者莫屬。我國(guó)《治理框架》第6.1條要求模型和系統(tǒng)提供者應(yīng)履行降低風(fēng)險(xiǎn)與標(biāo)記內(nèi)容的注意義務(wù)。歐盟《人工智能法》還要求與自然人直接互動(dòng)的系統(tǒng)提供者嵌入技術(shù)解決方案,以便能夠以機(jī)器可讀的格式進(jìn)行標(biāo)記,并檢測(cè)輸出內(nèi)容是由人工智能系統(tǒng)還是由人類生成或操縱的。
第二,模型部署者是使用生成式人工智能系統(tǒng)的相關(guān)方。部署者對(duì)于高風(fēng)險(xiǎn)人工智能系統(tǒng)如何具體使用具有較高程度的理解,因而能夠識(shí)別開發(fā)階段未預(yù)見的潛在重大風(fēng)險(xiǎn),應(yīng)對(duì)模型和系統(tǒng)提供者的義務(wù)承擔(dān)補(bǔ)充責(zé)任。例如,在線搜索引擎服務(wù)納入了通用人工智能系統(tǒng),比如在線聊天機(jī)器人對(duì)所有網(wǎng)站進(jìn)行搜索,然后將搜索結(jié)果納入其現(xiàn)有知識(shí)進(jìn)行輸出,則應(yīng)視為中介服務(wù)提供者。平臺(tái)有義務(wù)檢測(cè)和披露這些系統(tǒng)的輸出是否由人為生成或操縱的,以識(shí)別和降低傳播虛假信息和人為生成或操縱內(nèi)容的系統(tǒng)性風(fēng)險(xiǎn)。同時(shí),部署者與用戶的關(guān)系最為密切,需要對(duì)違反使用意圖的濫用風(fēng)險(xiǎn)進(jìn)行評(píng)估,承擔(dān)在發(fā)現(xiàn)違法行為時(shí)及時(shí)采取適當(dāng)?shù)奶幚泶胧┖捅4嬗涗浀牧x務(wù)。超大型在線平臺(tái)和超大型搜索引擎的中介服務(wù)提供者還有評(píng)估其服務(wù)的潛在系統(tǒng)性風(fēng)險(xiǎn)的義務(wù),包括用戶的潛在濫用風(fēng)險(xiǎn),并有義務(wù)采取適當(dāng)?shù)木徑獯胧@是一種監(jiān)管責(zé)任。我國(guó)《生成式人工智能服務(wù)管理暫行辦法》第14條也有類似規(guī)定,要求生成式人工智能的提供者發(fā)現(xiàn)違法內(nèi)容時(shí),及時(shí)采取停止生成、停止傳輸、消除等處置措施,進(jìn)行整改;發(fā)現(xiàn)使用者利用生成式人工智能從事違法活動(dòng)時(shí),應(yīng)當(dāng)采取警示、限制功能、暫停或者終止向其提供服務(wù)等處置措施,保存有關(guān)記錄,并向有關(guān)主管部門報(bào)告。
(二)重構(gòu)生成式人工智能服務(wù)提供者的刑事歸責(zé)
刑法對(duì)于前置法答責(zé)規(guī)則的解釋具有特殊性。通說認(rèn)為,這一規(guī)則的解釋體現(xiàn)在構(gòu)成要件層面上。具體到適用方式的爭(zhēng)議之上,主要有前刑法領(lǐng)域的“預(yù)先過濾”(Vorfilters)模式和將答責(zé)性規(guī)則用于構(gòu)成要件具體要素解釋的“一體化方案”(Integrationsl?sung)。齊白指出,根據(jù)答責(zé)性規(guī)則來(lái)對(duì)構(gòu)成要件要素進(jìn)行“解讀”,如對(duì)故意或者過失以及作為其前提的認(rèn)識(shí)要素進(jìn)行檢驗(yàn),其實(shí)沒有什么意義,而是應(yīng)按照答責(zé)性規(guī)則預(yù)先檢驗(yàn)?zāi)切├щy的、與構(gòu)成要件要素?zé)o關(guān)的問題,避免在構(gòu)成要件層面再檢驗(yàn)。但是他也主張,答責(zé)性規(guī)則并不是作為那種“對(duì)于刑事可罰性的限縮過濾”(ein die Strafbarkeit einschr?nkender Filter)的預(yù)先過濾,而是在構(gòu)成要件層面上對(duì)相關(guān)刑法規(guī)范的犯罪對(duì)象和服務(wù)者的犯罪行為進(jìn)行檢驗(yàn),實(shí)際上是對(duì)構(gòu)成要件的修正(als tatbestandsmodifizierend)。因此,合理的釋義學(xué)結(jié)構(gòu)應(yīng)當(dāng)是一種“構(gòu)成要件一體化方式的預(yù)先過濾”(tatbestandsintegrierte Vorfilterl?sung),本質(zhì)是將前刑法答責(zé)性規(guī)則作為歸責(zé)限制要素,在刑法構(gòu)成要件層面檢驗(yàn)歸責(zé)基礎(chǔ)。也即,前刑法答責(zé)性規(guī)則并非直接限縮了服務(wù)提供者的刑事責(zé)任,而是在構(gòu)成要件內(nèi)通過結(jié)合歸責(zé)理論的相關(guān)原則進(jìn)行適用,根據(jù)歸責(zé)基礎(chǔ)是否成立來(lái)確定服務(wù)提供者的刑事責(zé)任存在與否。
德國(guó)在確定中立網(wǎng)絡(luò)服務(wù)提供者的刑事責(zé)任時(shí)采取了以行為答責(zé)范圍作為刑法義務(wù)內(nèi)容與歸責(zé)基礎(chǔ)的客觀路徑,歸責(zé)重心完全在于前階段技術(shù)幫助行為本身獨(dú)立的可罰性。德國(guó)《遠(yuǎn)程媒體法》(Telemediengesetz,TMG)第7至10條規(guī)定了完整的網(wǎng)絡(luò)服務(wù)提供者的答責(zé)規(guī)則,主要規(guī)定可以免責(zé)的情形,反之也意味著不具備免責(zé)情形可能需要承擔(dān)刑事責(zé)任;此外還規(guī)定如果服務(wù)提供者自始具備共同犯罪意圖,則無(wú)需再適用這套規(guī)則進(jìn)行答責(zé)與免責(zé)的界分,構(gòu)成共同犯罪。在構(gòu)成要件層面直接據(jù)此修正不作為與共同犯罪理論中的歸責(zé)原則。詳言之,首先,需要依據(jù)《德國(guó)刑法典》總則第13條區(qū)分作為與不作為,而不作為犯的刑事責(zé)任依據(jù)在于等價(jià)性原則以及由保證人地位所確定的防止結(jié)果發(fā)生的法義務(wù)。《遠(yuǎn)程媒體法》中區(qū)分內(nèi)容生成與技術(shù)支持兩種服務(wù)提供形式。具體來(lái)說,自己生成內(nèi)容或是接受他人內(nèi)容(zu-Eigen-Machen fremder Inhalte)顯然是積極作為;事先已經(jīng)知道他人犯罪但仍然提供技術(shù)支持也屬于積極作為;而答責(zé)范圍規(guī)則的意義在于,《遠(yuǎn)程媒體法》第7條第2款明確規(guī)定不存在監(jiān)管和調(diào)查的一般義務(wù),因而技術(shù)支持形式中服務(wù)提供者的不作為保證人義務(wù)并非對(duì)危險(xiǎn)源監(jiān)管的保證人義務(wù),僅可能是特殊情形中的保護(hù)型保證人義務(wù)。也即,缺乏可構(gòu)成過失責(zé)任的一般性防控義務(wù)與刑事歸責(zé)基礎(chǔ)。在故意責(zé)任的框架下,提供技術(shù)支持的服務(wù)者在事中認(rèn)識(shí)到為后續(xù)的非法內(nèi)容提供了傳輸通路而沒有阻斷,或者提供了緩存與服務(wù)器存儲(chǔ)而沒有采取刪除等措施,從而造成了法益侵害結(jié)果,對(duì)后續(xù)結(jié)果因未履行法益保護(hù)的保證人義務(wù)而構(gòu)成不作為犯罪。接下來(lái)還需要區(qū)分在共同犯罪中的實(shí)行與參與,包括不可免責(zé)的不作為幫助與自始有意圖的積極幫助兩種。而答責(zé)范圍規(guī)則的意義在于解決以不作為方式實(shí)施的共同犯罪中關(guān)于正犯與參與的理論爭(zhēng)議,因?yàn)閭鹘y(tǒng)釋義學(xué)理論中用于區(qū)分正犯與參與的內(nèi)容均存在許多不合理之處。折衷的觀點(diǎn)認(rèn)為區(qū)分標(biāo)準(zhǔn)與保證人義務(wù)相關(guān),不作為犯罪中對(duì)危險(xiǎn)源負(fù)有監(jiān)督型保證人義務(wù)的一般是參與人,負(fù)有保護(hù)型保證人義務(wù)的一般是正犯。而最終的結(jié)論是,自己生成內(nèi)容或是接受他人內(nèi)容的服務(wù)提供者是正犯;事先明知他人犯罪而以積極作為方式提供技術(shù)支持的服務(wù)提供者也構(gòu)成共同犯罪;但事后以不可免責(zé)不作為方式提供技術(shù)支持的服務(wù)提供者是幫助犯。
德國(guó)這一信息網(wǎng)絡(luò)時(shí)代答責(zé)規(guī)則與“一體化方案”刑法釋義學(xué)理論構(gòu)建了清晰完整的三層次故意責(zé)任體系:正犯形式的內(nèi)容提供者的故意責(zé)任;事先積極作為形式的技術(shù)服務(wù)提供者的故意責(zé)任;事中消極不作為幫助形式的技術(shù)服務(wù)提供者的故意責(zé)任。然而,這在應(yīng)對(duì)生成式人工智能服務(wù)提供者的刑事歸責(zé)時(shí)存在受時(shí)代局限的體系框架缺失。第一,前置法規(guī)范中整體上缺乏對(duì)一般性風(fēng)險(xiǎn)的防控義務(wù),因而缺乏刑法中的過失責(zé)任,在現(xiàn)有框架中也難以進(jìn)行補(bǔ)充。第二,前置法規(guī)范中的免責(zé)規(guī)則明確限定在接入、緩存和主機(jī)存儲(chǔ)三種技術(shù)服務(wù)提供類型上,但生成式人工智能服務(wù)提供者實(shí)際上都兼具內(nèi)容生成與技術(shù)支持的雙重服務(wù)角色,現(xiàn)有規(guī)則體系根本無(wú)法對(duì)此適用。第三,關(guān)于對(duì)他人的積極作為與不作為幫助這兩種促成行為的刑事責(zé)任,在反向上的排除責(zé)任依據(jù)比較清晰,即,具備免責(zé)情形的不作為幫助犯型技術(shù)支持不可歸責(zé),具備共同犯罪意圖的積極正犯型技術(shù)支持不適用免責(zé)情形。但在正向上缺乏實(shí)質(zhì)歸責(zé)基礎(chǔ)。
(三)我國(guó)現(xiàn)有分則罪名體系的適用路徑
我國(guó)沒有建立完整的前刑法答責(zé)規(guī)則體系,而是通過增設(shè)罪名,再對(duì)相關(guān)罪名進(jìn)行刑法釋義學(xué)解釋,這就為理論構(gòu)建提供了一定空間。其中,幫助信息網(wǎng)絡(luò)犯罪活動(dòng)罪依照共同犯罪理論來(lái)確定網(wǎng)絡(luò)服務(wù)提供者的刑事責(zé)任,通過立法確認(rèn)明確肯定了中立與一般幫助行為的正犯化,這對(duì)應(yīng)于德國(guó)“積極作為型故意責(zé)任”。有學(xué)者指明了該罪的意義在于對(duì)不能以傳統(tǒng)共犯處理的網(wǎng)絡(luò)幫助行為進(jìn)行特殊刑事歸責(zé)。非幫助犯之網(wǎng)絡(luò)幫助行為的可罰性基礎(chǔ)構(gòu)建更為強(qiáng)調(diào)行為本身的獨(dú)立性,不從屬于任何一個(gè)受其幫助的實(shí)行行為,本質(zhì)為“促進(jìn)了犯罪實(shí)現(xiàn)的行為”,主觀上也應(yīng)著眼于幫助者對(duì)自身行為的認(rèn)識(shí),認(rèn)為自己提供的幫助“極有可能”促進(jìn)他人犯罪即可,不需認(rèn)識(shí)到他人一定犯罪、具體犯何罪。這在主客觀要件和歸責(zé)基礎(chǔ)上均與傳統(tǒng)共同犯罪理論存在較大差異,實(shí)際上屬于后繼犯罪的歸責(zé)結(jié)構(gòu),是在后繼犯罪的外部邊界上界分了網(wǎng)絡(luò)服務(wù)提供者的可罰促成行為與不應(yīng)因他人后續(xù)犯罪而歸責(zé)的正當(dāng)前行為。此外,拒不履行信息網(wǎng)絡(luò)安全管理義務(wù)罪依照不作為理論界定網(wǎng)絡(luò)服務(wù)提供者刑事責(zé)任,這對(duì)應(yīng)于德國(guó)“消極不作為幫助型故意責(zé)任”的責(zé)任形式。該罪設(shè)立的目的是為了在不可罰中立幫助行為與不作為形式的幫助行為之間進(jìn)行界分,對(duì)此仍是借助了德國(guó)的答責(zé)規(guī)則框架,將網(wǎng)絡(luò)服務(wù)提供者分為接入服務(wù)提供者、緩存服務(wù)提供者、存儲(chǔ)服務(wù)提供者和定位服務(wù)提供者。罪過形式應(yīng)為一種模糊罪過,即網(wǎng)絡(luò)服務(wù)提供者對(duì)“拒不改正”的行為本身持故意態(tài)度,對(duì)于造成嚴(yán)重后果可以存在過失的罪過形態(tài)。不法內(nèi)涵是對(duì)其特定管理責(zé)任義務(wù)的違反,本質(zhì)是義務(wù)犯。不難發(fā)現(xiàn),這實(shí)際上也涵蓋了一種因自身促成行為而出現(xiàn)他人犯罪后果的后繼犯罪結(jié)構(gòu),是在后繼犯罪的內(nèi)部邊界上界分了中立免責(zé)幫助的行為自由空間與超出行為自由空間具有犯罪意涵的促成行為。
當(dāng)前,網(wǎng)絡(luò)服務(wù)提供者的答責(zé)規(guī)則體系與刑法分則罪名已需要調(diào)整,生成式人工智能服務(wù)提供者的答責(zé)規(guī)則與刑事責(zé)任框架至少需要作出以下三個(gè)方面的變更。第一,在生成式人工智能服務(wù)提供者兼具內(nèi)容生成與技術(shù)支持雙重功能的前提下,服務(wù)對(duì)象與行為再細(xì)分“內(nèi)容生成與技術(shù)支持”和“自我內(nèi)容提供與他人(技術(shù))內(nèi)容”已無(wú)必要,應(yīng)轉(zhuǎn)變?yōu)橐燥L(fēng)險(xiǎn)為核心,在直接導(dǎo)致結(jié)果與間接促成他人犯罪之間進(jìn)行不同流程上的結(jié)構(gòu)區(qū)分。第二,在有必要增加過失責(zé)任的前提下,責(zé)任框架的核心從“作為與不作為”“正犯與共犯”的形式區(qū)分轉(zhuǎn)變?yōu)檫^失與故意的程度區(qū)分。第三,在有必要實(shí)現(xiàn)全流程風(fēng)險(xiǎn)監(jiān)管的前提下,刑事責(zé)任的重點(diǎn)應(yīng)從“答責(zé)與免責(zé)”界分轉(zhuǎn)變?yōu)閷?duì)自我不當(dāng)風(fēng)險(xiǎn)與對(duì)他人犯罪的刑法規(guī)范義務(wù)認(rèn)定,關(guān)鍵在于從正面構(gòu)建重大過失犯罪與后繼犯罪的不法內(nèi)涵與歸責(zé)結(jié)構(gòu)。
在我國(guó)現(xiàn)有刑法分則體系中,可以在拒不履行信息網(wǎng)絡(luò)安全管理義務(wù)罪的罪名下構(gòu)建生成式人工智能服務(wù)提供者行為的歸責(zé)基礎(chǔ)。一方面,拒不履行信息網(wǎng)絡(luò)安全管理義務(wù)罪能夠容納過失責(zé)任。信息網(wǎng)絡(luò)安全管理義務(wù)的來(lái)源是法律、行政法規(guī)的規(guī)定,其中可包括網(wǎng)站安全、信息安全的保障管理制度。針對(duì)技術(shù)風(fēng)險(xiǎn)不當(dāng)升高的情形,關(guān)鍵在于選取生成式人工智能服務(wù)提供者對(duì)重要領(lǐng)域安全的風(fēng)險(xiǎn)防控與安全保障義務(wù)。例如,模型提供者具有進(jìn)行內(nèi)容標(biāo)記的一般義務(wù),如果是在具有輿論與政治動(dòng)員功能的模型中不履行內(nèi)容標(biāo)記義務(wù)就構(gòu)成重大過失。又如,服務(wù)提供者具有進(jìn)行風(fēng)險(xiǎn)評(píng)估和采取降低風(fēng)險(xiǎn)措施的義務(wù),如果是在政府部門、關(guān)鍵基礎(chǔ)設(shè)施以及直接影響公共安全和公民生命健康安全的重點(diǎn)領(lǐng)域未履行上述義務(wù),也屬于重大過錯(cuò)。另一方面,目前服務(wù)提供者的后繼犯罪結(jié)構(gòu)在幫助信息網(wǎng)絡(luò)犯罪活動(dòng)罪與拒不履行信息網(wǎng)絡(luò)安全管理義務(wù)罪中分散規(guī)定,導(dǎo)致兩個(gè)罪名發(fā)生重疊混亂,應(yīng)圍繞服務(wù)提供者主體進(jìn)行整合。與共同犯罪中的幫助行為不同,后繼犯罪結(jié)構(gòu)關(guān)注前階段行為本身是否超出了合法行為空間并已造成對(duì)法益觀念性侵害,而非行為與實(shí)行行為的(主觀)從屬性關(guān)聯(lián),因此更為符合拒不履行信息網(wǎng)絡(luò)安全管理義務(wù)罪的構(gòu)罪邏輯。關(guān)鍵在于依據(jù)后繼犯罪理論認(rèn)定行為本身的特殊犯罪意涵,例如,部署者或平臺(tái)已經(jīng)發(fā)現(xiàn)違法內(nèi)容或使用者利用生成式人工智能從事違法活動(dòng)但并不采取限制功能、暫停或停止生成、停止傳輸、消除等處置措施,就可以認(rèn)定其服務(wù)提供行為已經(jīng)超出了中立服務(wù)提供行為的自由空間,具備促成他人犯罪的特殊犯罪內(nèi)涵。這樣就將監(jiān)管法律中的注意規(guī)范融入和適用于刑法釋義學(xué)的歸責(zé)原則和結(jié)構(gòu)中了。
五、結(jié)語(yǔ)
從啟蒙時(shí)代的傳統(tǒng)刑法到現(xiàn)代國(guó)家治理框架下的現(xiàn)代刑法,刑法釋義學(xué)從以觀念論作為思想基礎(chǔ)逐步融入了系統(tǒng)論等多元理論,刑法的目的也從報(bào)應(yīng)逐漸容納了對(duì)社會(huì)風(fēng)險(xiǎn)的預(yù)防與控制,刑法成為整體社會(huì)治理制度的一個(gè)組成部分。其中,以計(jì)算機(jī)和網(wǎng)絡(luò)刑法為代表的信息技術(shù)領(lǐng)域刑法是現(xiàn)代刑法體系下的重要領(lǐng)域,信息技術(shù)的迅速更新迭代也使得這一領(lǐng)域中刑法回應(yīng)新型犯罪風(fēng)險(xiǎn)的現(xiàn)實(shí)需求更為突出,如何回應(yīng)生成式人工智能帶來(lái)的新風(fēng)險(xiǎn)正是當(dāng)前最值得關(guān)切的問題。關(guān)于生成式人工智能服務(wù)提供者的刑事歸責(zé)基礎(chǔ),最理想的狀況應(yīng)當(dāng)是:專門針對(duì)生成式人工智能服務(wù)提供者制定一套細(xì)致且專業(yè)的答責(zé)性規(guī)則,這套規(guī)則可修正刑法中釋義學(xué)的相關(guān)歸責(zé)原則和結(jié)構(gòu),并融于刑法構(gòu)成要件層面進(jìn)行檢驗(yàn),最終確定服務(wù)提供者的歸責(zé)基礎(chǔ)或排除歸責(zé)基礎(chǔ)。其一,生成式人工智能服務(wù)提供者的技術(shù)性、主體復(fù)雜性、答責(zé)特殊性,與網(wǎng)絡(luò)服務(wù)提供者的侵犯版權(quán)或非法有害內(nèi)容傳輸?shù)拇鹭?zé)規(guī)則相比,有過之而無(wú)不及。將傳統(tǒng)的出版責(zé)任、新聞責(zé)任乃至數(shù)字服務(wù)提供者的責(zé)任規(guī)則套用在生成式人工智能服務(wù)提供者之上并不恰當(dāng)。其二,刑事責(zé)任的釋義學(xué)難以處理特殊技術(shù)領(lǐng)域的專業(yè)問題,即便最終要融入釋義學(xué)中進(jìn)行刑法體系內(nèi)的理論適用,也需以專門的答責(zé)規(guī)則為前提,或至少作為參考。
美國(guó)、德國(guó)及歐盟的相關(guān)答責(zé)性規(guī)則都形成于2000年左右,彼時(shí)互聯(lián)網(wǎng)發(fā)展已有時(shí)日,建立完整的答責(zé)性規(guī)則體系的時(shí)機(jī)和條件均已成熟,所形成的答責(zé)性規(guī)則體系也較為完善。但目前生成式人工智能技術(shù)方興未艾,迭代迅速,關(guān)于服務(wù)提供者的義務(wù)規(guī)則也在探索和形成中,實(shí)踐與法律規(guī)制經(jīng)驗(yàn)都尚不充足,因而不宜急于建立一套劃定答責(zé)性范圍的規(guī)則。目前應(yīng)以安全監(jiān)管為導(dǎo)向細(xì)化生成式人工智能服務(wù)提供者主體和義務(wù)內(nèi)容的注意規(guī)范,具體歸責(zé)范圍仍需在刑法釋義學(xué)相關(guān)原則和結(jié)構(gòu)研究乃至具體罪名適用中予以劃定。待時(shí)機(jī)成熟,應(yīng)直接確定一套通用的答責(zé)性規(guī)則,在刑法中依據(jù)該規(guī)則修正構(gòu)成要件層面的傳統(tǒng)刑法歸責(zé)原則。
內(nèi)容來(lái)自《環(huán)球法律評(píng)論》2026年第2期“理論前沿”。因篇幅較長(zhǎng),注釋從略。
本文章僅限學(xué)習(xí)交流使用,版權(quán)歸原作者所有。
??
Serving national strategies, focusing on university research and the transformation of scientific and technological achievements
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.