中國周刊

數(shù)字法治|驍克:人工智能體法律人格化擬制路徑之探究

2021-11-23 10:27:00

圖片1.png


驍克:華東政法大學(xué)法律學(xué)院博士研究生


本文來源:《法律方法》第34卷


人工智能并非一個(gè)近年來才被提出的科技概念。早在1956年達(dá)特茅斯會議就提出了“人工智能”的概念,20世紀(jì)7080年代,學(xué)界更是對其充滿了研究熱情。但受到當(dāng)時(shí)的算法、學(xué)習(xí)能力等客觀條件限制,人工智能更多呈現(xiàn)出一種“有多少人工就有多少智能”的狀態(tài)。隨著算法和深度學(xué)習(xí)技術(shù)的突破性發(fā)展,2016年,擁有深度學(xué)習(xí)能力的人工智能圍棋手Alpha Go(以下稱“阿爾法狗”)以極大優(yōu)勢戰(zhàn)勝世界級棋手李世石,人工智能展示的威力開始震驚世界;2017年,“阿爾法狗”又再一次完勝圍棋世界冠軍柯潔后,人工智能的發(fā)展再次受到全球矚目,成為當(dāng)時(shí)科技界,乃至今日“全場最靚的仔”。因此,2017年被《華爾街時(shí)報(bào)》《福布斯》和《財(cái)富》等世界重要媒體稱為“人工智能元年”。同時(shí),借著我國國家層面第一部關(guān)于人工智能發(fā)展規(guī)劃——《新一代人工智能發(fā)展規(guī)劃》出臺的政策東風(fēng),法學(xué)界第一時(shí)間秉承對現(xiàn)實(shí)社會的強(qiáng)烈關(guān)切和對熱點(diǎn)問題的回應(yīng),積極地開始了關(guān)于人工智能時(shí)代的“法學(xué)思考”,相關(guān)研究成果呈爆炸式增長,“人工智能+”成為如今法學(xué)界最耀眼的知識增長點(diǎn)。


一、人工智能體“法律人格論”的學(xué)理檢視


目前法學(xué)界關(guān)于人工智能的研究主要關(guān)注其風(fēng)險(xiǎn)防范和規(guī)制。而法律如何規(guī)制這些未來的“最強(qiáng)大腦”,首先必須要回答它在法律中何以安放的問題,亦即人工智能體能否擁有法律人格、繼而能否作為法律主體。實(shí)踐中,隨著有國家授予機(jī)器人“公民身份”,并且相關(guān)立法草案或建議也擬賦予機(jī)器人“主體性”,部分學(xué)者亦隨之狂歡,開始新一輪的法律“造人”計(jì)劃。主張賦予人工智能法律主體資格的論者認(rèn)為,自主性是人工智能的核心特征,人類已經(jīng)失去將其繼續(xù)看作僅供人類驅(qū)使的被動性工具的理由,而應(yīng)給予其主體資格,讓其享受特定的權(quán)利義務(wù),并對行為承擔(dān)責(zé)任;人工智能體成為法律主體,不僅有利于解決人工智能體自主行為的法律責(zé)任承擔(dān)問題和人工智能創(chuàng)作物的產(chǎn)權(quán)歸屬問題,還能夠?yàn)橐院蟮母叨巳斯ぶ悄荏w(即強(qiáng)人工智能)自主參與社會活動做好準(zhǔn)備。目前主要形成了“權(quán)利主體說”“擬制主體說”“有限法律人格說”“代理人說”“電子人格說”,本部分將對上述學(xué)說逐一展開學(xué)理檢視。


(一)權(quán)利主體說之檢視


該學(xué)說認(rèn)為人工智能體具備了權(quán)利主體的智能性這一本質(zhì)要素,將人工智能“人格化”不存在法律方法論上的障礙,相反,人工智能體具有適應(yīng)社會發(fā)展的正向功能性。該學(xué)說的擁躉者還從權(quán)利擴(kuò)張和“實(shí)力”變化的角度,認(rèn)為在權(quán)利主體的發(fā)展歷程中,奴隸、黑人、婦女、動物乃至法人等主體,取得權(quán)利主體資格,均是“實(shí)力影響、界定權(quán)利”的反映,機(jī)器人廣泛運(yùn)用于社會中并體現(xiàn)了一定的自主性和社會優(yōu)勢,故在法律上應(yīng)當(dāng)享有權(quán)利主體的地位,即便該權(quán)利有別于自然人的權(quán)利。


“權(quán)利主體說”明確了權(quán)利主體的本質(zhì)要素,通過類比推理的法律方法,將人工智能“人格化”,主張應(yīng)賦予其獨(dú)立的權(quán)利主體地位;并從法社會學(xué)的立場出發(fā),依據(jù)“實(shí)力界定權(quán)利”的原則,認(rèn)可人工智能在法律上應(yīng)該享有權(quán)利主體的地位。但該推論邏輯上存在兩個(gè)問題。其一,智能性是權(quán)利主體本質(zhì)要素的證成是否充分?權(quán)利主體是依法享有權(quán)利和承擔(dān)義務(wù)的法律關(guān)系的參加者,對于權(quán)利主體的核心要求應(yīng)當(dāng)是能夠自主依法行使權(quán)利、并承擔(dān)相應(yīng)的義務(wù)。從民事領(lǐng)域來看,目前人工智能是否具備獨(dú)立行使人身權(quán)利、財(cái)產(chǎn)權(quán)利以及其他合法權(quán)益的能力?從目前看來,人工智能體僅能夠具備特定的權(quán)利,且權(quán)利的實(shí)現(xiàn)有賴于自然人的幫助,并不具備獨(dú)立行使權(quán)利的能力。其二,“實(shí)力界定權(quán)利”原則并非導(dǎo)致權(quán)利發(fā)生變化的根本原則,亦即“實(shí)力”并非權(quán)利變化的決定性因素,奴隸、黑人、婦女等法律主體權(quán)利的變遷和擴(kuò)張是社會經(jīng)濟(jì)和文化多種因素共同作用的結(jié)果,并且這些主體的變化仍局限于自然人范疇,并未擴(kuò)充到非自然人領(lǐng)域。因此,根據(jù)以上兩個(gè)邏輯上的問題,直接賦予人工智能體以完整、獨(dú)立的權(quán)利主體地位,并不具備說服力。


(二)擬制主體說之檢視


該說認(rèn)為,人工智能體具備了人類的思維能力,所以超越了傳統(tǒng)意義上“物”的概念范疇,但人工智能擺脫不了為人類服務(wù)的工具性附庸角色,所以其非物也非人,我們可以像擬制法人一樣,從法律上擬制一個(gè)新的主體,賦予其與法人一樣性質(zhì)的法律地位。該主體地位依賴于自然人而非獨(dú)立于自然人,只是法律的擬制。


關(guān)于“擬制主體說”,其承認(rèn)人工智能體具備超越“物”的屬性,但仍然是為人類服務(wù)的“工具”角色,和法人制度一樣“是人的手臂之延展”。因此,即使人工智能體不具備完整、獨(dú)立的權(quán)利主體地位,但仍可通過法律擬制的方式,賦予其與法人相同性質(zhì)的法律地位,但人工智能體的權(quán)利行使和義務(wù)承擔(dān),仍依賴于自然人而非獨(dú)立于自然人。這種擬制主體的方式導(dǎo)致人工智能體雖然具備權(quán)利與義務(wù),但其權(quán)利行使和義務(wù)承擔(dān)完全依賴于自然人。試舉例,假設(shè)人工智能體通過一定的“創(chuàng)作”,取得了作品的著作權(quán)。但其權(quán)利的行使完全依賴于自然人,機(jī)器人意愿的形成和表達(dá)仍需要通過自然人的意愿來決定,而并非基于人工智能“主觀意愿的自由表達(dá)”,那在法律上建立擬制主體制度的價(jià)值何在?


(三)有限法律人格說之檢視


該學(xué)說認(rèn)為人工智能體的本質(zhì)依然是工具,其為人類社會服務(wù)的屬性沒有改變,但鑒于其具有獨(dú)立自主的行為能力,應(yīng)賦予其法律人格;但另一方面,由于其承擔(dān)行為能力的后果有限,其僅具有有限的法律人格,這種有限性表現(xiàn)在以下兩個(gè)方面:一是人工智能體享有的權(quán)利與負(fù)有的義務(wù)存在有限性。因此,人工智能可被賦權(quán)的范圍應(yīng)集中于虛擬空間、財(cái)產(chǎn)權(quán)等具有現(xiàn)實(shí)利益的經(jīng)濟(jì)類權(quán)利上,而不包括基礎(chǔ)性倫理權(quán)。而義務(wù)內(nèi)容就是在可控范圍內(nèi)從事指定勞動,同時(shí)此義務(wù)需要加以不得傷害人類為絕對性限制,這也是阿西莫夫“機(jī)器人三原則”中對于機(jī)器人義務(wù)的限定。二是人工智能體的行為能力存在有限性。人工智能永遠(yuǎn)無法在各個(gè)方面均取代人類,基于此類特殊生產(chǎn)工具的屬性,人工智能體的損害賠償責(zé)任最終需要由涉及人工智能產(chǎn)業(yè)鏈條上不同身份的人類主體承擔(dān)。在此基礎(chǔ)上,對于人工智能體仍需要特殊的法律規(guī)范予以規(guī)制。


關(guān)于“有限法律人格說”,其立論的基礎(chǔ)是民法上確認(rèn)法人的民事主體人格,實(shí)質(zhì)上是一種功利主義視角,是法律人格的工具化。而通過將人工智能與法人的類比推理,認(rèn)為人工智能與法人一樣,應(yīng)當(dāng)具備財(cái)產(chǎn)權(quán)。同時(shí),由于人工智能基于算法和深度學(xué)習(xí),其自主決定的判斷是合理的,但不一定符合倫理。且人工智能雖然具有有限法律人格,但歸根結(jié)底依舊是由人類創(chuàng)造并服務(wù)于人類社會發(fā)展的智慧型工具,這從根本上決定人工智能的發(fā)展必須遵循“以人為本”的價(jià)值原則,以保護(hù)、不侵犯人類為基本底線。因此,賦予人工智能體法律人格具有有限性,并表現(xiàn)為行為能力、權(quán)利義務(wù)以及責(zé)任能力的有限性。其立論即限制了人工智能作為法律主體的權(quán)利,這種限制將導(dǎo)致人工智能體與人類在法律關(guān)系中處于不平等地位,特別是在極其注重主體平等的民事法律關(guān)系中,這種有限人格與自然人的關(guān)系展開將帶來很大的問題,且該觀點(diǎn)并不能普適性地運(yùn)用在民法以外的范疇,如刑法、行政法領(lǐng)域。


(四)代理人說之檢視


該學(xué)說源自2017年的《歐盟機(jī)器人民事責(zé)任法律規(guī)則》第52條提出的“非人類的代理人”概念,其將機(jī)器人視為一種具有目的性系統(tǒng)的人工智能體,并視其為人類代理人,這種代理人必然是具有法律主體地位且具有行為能力的人,因此機(jī)器人的用戶或操作者與機(jī)器人的關(guān)系可以被看作是法律關(guān)系中被代理人與代理人的關(guān)系。這一認(rèn)定幾乎等同于承認(rèn)人工智能體具有法律人格。這個(gè)學(xué)說是對代理人概念的擴(kuò)大解釋,我國民法典中雖未對代理人的資質(zhì)有明確要求,但民法是調(diào)整平等主體的自然人、法人和非法人組織之間的人身關(guān)系和財(cái)產(chǎn)關(guān)系。


而在這個(gè)概念下,人工智能體取得法律主體地位、并且具備行為能力是其作為代理人、形成代理關(guān)系的正當(dāng)性前提。但該學(xué)說并未論證人工智能取得法律主體地位的正當(dāng)性,依據(jù)一般民事理論,代理人需要具備一定的權(quán)利能力和行為能力,機(jī)器人的行為能力判斷標(biāo)準(zhǔn)如何界定也未明確。在未論證主體正當(dāng)性的前提下,將人工智能納入傳統(tǒng)的代理制度,并依此承認(rèn)人工智能體具有法律人格,存在循環(huán)論證的問題。此外,根據(jù)現(xiàn)行代理法的規(guī)定,代理包括委托代理、法定代理和指定代理,而此時(shí)并無法將機(jī)器人代理歸入任何一類,一方面既欠缺法律的明確規(guī)定,另一方面也根本不存在任何意思表示。


(五)電子人格說之檢視


這一觀點(diǎn)源自歐盟通過的《歐盟機(jī)器人民事法律草案》第59f條款:長遠(yuǎn)來看,要為機(jī)器人創(chuàng)設(shè)一個(gè)特殊的法律地位,以便至少大多數(shù)復(fù)雜的自動化機(jī)器人可以被確立如電子人(electronic persons)一樣的法律地位,為其制造的大量的損害負(fù)責(zé),或者,當(dāng)機(jī)器人可以作出自動化決定或者與第三人自主交流時(shí),要申請電子人格。因此,通過給先進(jìn)的自動化機(jī)器人以“電子人”的身份,賦予其一定的權(quán)利義務(wù),以便能夠?yàn)槠洚a(chǎn)生的大量損害負(fù)責(zé)。該法還進(jìn)一步建議為智能的自動化機(jī)器人設(shè)定登記制度,以便為其納稅、繳費(fèi)、領(lǐng)取養(yǎng)老金。該觀點(diǎn)通過對現(xiàn)行權(quán)利主體的擴(kuò)大解釋,形成新的電子人格制度,賦予人工智能體以法律地位。


但是“電子人”這種有別于現(xiàn)有法律人格類別的新型人格類型,并不能因該機(jī)器人被生產(chǎn)出來而自動生成,而是需要制造商或所有人提出申請予以確認(rèn)。此外,就電子人本身,也并沒有明確的內(nèi)涵和外延。相較于現(xiàn)行的自然人、法人非法人組織,電子人具有的權(quán)利能力和義務(wù)是否有限?其行為能力應(yīng)當(dāng)如何確定?電子人在觸犯法律時(shí),如何處罰?傳統(tǒng)的自由刑、生命刑對電子人是否有效?電子人如果本身作為自然人的財(cái)產(chǎn),則對電子人“生命”與“自由”的剝奪,又間接剝奪其“主人”的財(cái)產(chǎn)權(quán),這種法律競合如何處理?


綜上,雖然主張賦予人工智能法律主體資格的觀點(diǎn)眾說紛紜,從某一角度看似乎都有一定道理,但其論證人工智能具備法律人格的路徑,并經(jīng)不起仔細(xì)推敲和認(rèn)真審視。這就開啟了人工智能體法律人格化的擬制路徑分析。


二、人工智能體人格化之?dāng)M制分析


“法律主體和法律規(guī)范體系不是自然物而是人造物,是法律擬制的產(chǎn)物?!倍@種擬制,并非狹義的擬制,而是關(guān)于主體權(quán)責(zé)、行為規(guī)范的設(shè)定,是對模糊不清的事實(shí)、界限不明的主體身份、難以斷定的行為等予以明晰的規(guī)定,是人有意識對認(rèn)知對象的界定以及對行為方式和思維方式的調(diào)整。因此,從這個(gè)意義上,所有的法律人格都具有擬制性,是一種人格化擬制。


要理解所有法律人格都具有擬制性這一特征,首先需要區(qū)分自然科學(xué)意義上的“人”與法律意義上“人”。民法上的法人、自然人等法律主體所具有的法律人格以及所有的民法概念體系,都是民法為了調(diào)整不同主體之間的法律關(guān)系或進(jìn)行權(quán)利責(zé)任配置,所進(jìn)行的一種法律擬制。分析法學(xué)的代表人物凱爾森認(rèn)為,manperson是兩個(gè)完全不同概念,將man用作person的對立表達(dá)。在他看來,作為man的人是一個(gè)自然科學(xué)意義上的生理人,而person是法學(xué)、分析法律規(guī)范的概念。從manperson的轉(zhuǎn)變背后承載的是兩種完全不同的分析范式,前者是自然界中的人,后者是規(guī)范世界中的人;前者是對客觀事實(shí)的描述,后者是對客觀事實(shí)的抽象化提煉,而這個(gè)轉(zhuǎn)變的過程,正是法律擬制。“擬制”,并不是指將一個(gè)非人的動物、實(shí)體假定為人,而是指法律人的成立,首先是源于法律的抽象建構(gòu),人之所以為人是因?yàn)楦鶕?jù)法律規(guī)則的觀點(diǎn),人展現(xiàn)了一種自我目的。


羅馬法認(rèn)為,享有自由權(quán)就是自由人,不享有自由權(quán)就是奴隸。就市民法來說,奴隸被認(rèn)為不是人,不具備法律上的人格。除了基于出生的生來自由人,羅馬皇帝有資格把自由權(quán)賜予有功的奴隸(金戒指權(quán)),使其成為解放自由人,而得到恩主同意并由恩主發(fā)布出生恢復(fù)令,解放自由人才能成為生來自由人。在此過程中,羅馬皇帝的金戒指權(quán)就是一種法律擬制,而奴隸(自然人)據(jù)此取得法律人格?!叭恕睂?shí)際上就是“法人”,也即由法律擬制、塑造的人。


法律選擇法律主體的標(biāo)準(zhǔn)存在不同。對生物人成為法律主體,法律并無特殊要求,凡是生物人皆為自然人;但對生物人之外的其他實(shí)體則借助擬制成為法律主體,這一擬制主要是借助法定條件實(shí)現(xiàn)的,即其他實(shí)體要成為法律主體必須滿足法律規(guī)定的條件,否則不承認(rèn)其具有法律主體資格。這些法定條件背后則隱藏著法律所追求的特定目的,只有合乎立法者認(rèn)定的社會需求的其他實(shí)體,才會被賦予法律主體資格。大陸法系的法人制度清晰地說明了這一點(diǎn),《民法總則》關(guān)于法人制度的相關(guān)規(guī)定即是例證。英美法系同樣如此,馬歇爾在達(dá)特茅斯學(xué)院案中指出,公司設(shè)立的目的通常是政府希望促進(jìn)的目標(biāo)。它們被認(rèn)為對國家有益,這種利益構(gòu)成了對價(jià),在大多數(shù)案件中,授權(quán)是唯一的對價(jià)。自然人制度背后的立法目的和以法人為代表的非自然人制度背后的立法目的并不相同??档轮赋觯骸澳切┢鋵?shí)不以我們的意志為依據(jù),而以自然的意志為依據(jù)的東西,如果它們是無理性的東西,就叫做物件。與此相反,有理性的東西叫做人身,因?yàn)椋麄兊谋拘员砻髯陨碜栽诘木褪悄康?,是種不可被當(dāng)作手段使用的東西,從而限制了一切人性,并且是一個(gè)受尊重的對象。”生物人因?yàn)橛欣硇远蔀槟康模蔀樽匀蝗诉@一法律主體;除此之外都是物,只是因?yàn)槿说哪康牟疟粩M制為法律主體。從這種意義上說,自然人的判斷標(biāo)準(zhǔn)是理性,非自然人民事主體的判斷標(biāo)準(zhǔn)是合乎人類需求的擬制。


因此,是否應(yīng)當(dāng)賦予人工智能以法律人格或獨(dú)立的主體地位,無需通過論證其與自然人或法人的相似性或?qū)扔蟹芍黧w條款進(jìn)行擴(kuò)大解釋的方式來論證其法律人格,而是要看是否有助于調(diào)整人工智能產(chǎn)生的法律關(guān)系或有助于進(jìn)行其產(chǎn)生的權(quán)利義務(wù)關(guān)系的配置。而現(xiàn)在不具備生命、意志、情感、道德的人工智能已經(jīng)為人類提供了便捷服務(wù),為了更好地規(guī)范人工智能相關(guān)法律問題,明確人工智能的法律定位,從擬制哲學(xué)的角度來講,我們完全可以通過擬制法律人格的方式,使之成為法律主體。


即使不考慮未來強(qiáng)人工智能完全自主行為的情況,現(xiàn)有的“深度算法”人工智能,已經(jīng)存在“算法黑箱”的情況。而在“算法黑箱”的情況下,我們無從得知人工智能的決策中,哪一部分關(guān)系需要法律調(diào)整,而這一部分又是如何凸顯的。這既可能是設(shè)計(jì)中的不完備,亦或算法開發(fā)的瑕疵,也可能是“深度學(xué)習(xí)”中數(shù)據(jù)偏見的作用,甚至是使用者不規(guī)范使用所導(dǎo)致的。如現(xiàn)行《侵權(quán)責(zé)任法》關(guān)于產(chǎn)品侵權(quán)的規(guī)定,在難以界定各方責(zé)任的情況下,不能很好地保護(hù)自然人的利益。因此,賦予人工智能一定的法律人格,是回應(yīng)人工智能侵權(quán)案件的現(xiàn)實(shí)需求。


2017216日,歐盟議會投票通過一項(xiàng)決議,就制定《歐盟機(jī)器人民事法律規(guī)則》提出具體建議,并要求歐盟委員會提交關(guān)于機(jī)器人和人工智能民事責(zé)任的法律提案。該決議的“法律責(zé)任”部分第AD條指出:“在現(xiàn)行法律框架下,機(jī)器人不應(yīng)因其對第三方造成損害的行為或遺漏而承擔(dān)責(zé)任;在責(zé)任保險(xiǎn)的現(xiàn)行規(guī)定中,機(jī)器人的作為或不作為的原因可以追溯到某一特定的人類代理人,如制造商、經(jīng)營者、所有者或使用者,以及該代理人可以預(yù)見和避免機(jī)器人的有害行為的地方;此外,制造商、經(jīng)營者、業(yè)主或用戶可對機(jī)器人的行為或不作為負(fù)有嚴(yán)格責(zé)任?!倍凇懊裼脵C(jī)器人和人工智能發(fā)展的基本原則”部分第59條第f項(xiàng)指出:“從長遠(yuǎn)來看,應(yīng)為機(jī)器人創(chuàng)造一個(gè)特定的法律地位,這樣至少可以將最先進(jìn)的自主機(jī)器人界定為電子人,從而負(fù)責(zé)賠償其可能造成的任何損害,并可能將電子人格應(yīng)用于機(jī)器人作出自主決定或獨(dú)立與第三人交往的情形?!鄙鲜隽⒎ńㄗh進(jìn)一步證明了在機(jī)器人可以自主決策的情況下,傳統(tǒng)的規(guī)則并不能適用于機(jī)器人造成損害而引起的法律責(zé)任問題,因?yàn)椴荒艽_定到底哪一方當(dāng)事人需要承擔(dān)賠償責(zé)任,以及由誰應(yīng)當(dāng)對機(jī)器人自主行為引起的損害承擔(dān)賠償責(zé)任。


人工智能體法律人格的獲取均建立在自然人法律人格的基礎(chǔ)之上,甚至離不開自然人的支持——無論是何種觀點(diǎn),均是人類在為人工智能體賦權(quán),而非其他主體在為其賦權(quán)。賦予人工智能體以法律人格,哪怕是不完整、不獨(dú)立的法律人格,依然有利明確人工智能體行為所產(chǎn)生的權(quán)利義務(wù)關(guān)系配置,有利于調(diào)整人工智能體產(chǎn)生的法律關(guān)系。因此,從擬制的角度來看,人工智能具備法律人格具有應(yīng)然性。但人工智能體的法律人格具體應(yīng)該如何明確,其權(quán)利責(zé)任究竟如何進(jìn)行調(diào)整或配置,是法律擬制所難以明確的。而面對這種困境,“法教義學(xué)是法學(xué)研究不可拋棄的立場和方法,當(dāng)下對人工智能法律問題的研究僅停留在對策論,離開法教義學(xué)的精耕細(xì)作和理論共識探討必將使人工智能問題研究難以沉淀。”人工智能體的法律人格如何明確,權(quán)利責(zé)任如何配置,就需要回歸到邏輯的開端和理論建構(gòu)的基點(diǎn),進(jìn)行更細(xì)致的法律思維——法教義學(xué)。


三、具體法域中人工智能體法律人格的擬制規(guī)程


無論從非自然人存在物成為法律主體的擬制理由觀察,還是從人工智能成為法律主體的問題實(shí)質(zhì)考量,人工智能體成為法律主體并不是為了保護(hù)人工智能的利益,而是為了保護(hù)人類的利益。換言之,人工智能體成為法律主體只是實(shí)現(xiàn)人類利益的手段,人本身才是目的。人類為了解決人工智能體引發(fā)的相關(guān)社會問題,才按照自身利益將其擬制成為法律主體。人工智能的法律主體地位與自然人的法律主體地位具有不同的涵義,人工智能體為人而存在。而從目前來看,人工智能體與人的沖突有很多領(lǐng)域,筆者嘗試從以下三個(gè)領(lǐng)域來進(jìn)行探討:人工智能體的民事法律人格、人工智能體的刑事法律人格、人工智能體的著作權(quán)法人格。


(一)人工智能的民事法律人格——類法人的權(quán)利能力


法律人格問題是私法中一個(gè)最基本的問題,法律人格是法律主體的根基,法律人格、法律主體和權(quán)利能力三個(gè)抽象的概念在一定程度上能夠進(jìn)行相互解釋。擁有法律人格即意味著擁有法律主體地位,也意味著能成為法律關(guān)系中的權(quán)利享有者、義務(wù)履行者和責(zé)任承擔(dān)者。從西方法律人格制度的發(fā)展史來看,“法律人格”概念和范疇經(jīng)歷了不斷發(fā)展變化的歷史變遷,呈現(xiàn)出三方面的特征和趨勢:一是依托于“天賦人權(quán)”理念的起興和自然法“理性與平等”觀念的勃興,泛靈論和多神論逐漸式微,非人主體如植物、動物、神、上帝等被排除在法律人格和權(quán)利主體的范疇之外,自然人成為法律主體;二是法律人格的主體范圍完全覆蓋到所有自然人,自然人法律人格不再局限于羅馬法上有區(qū)別、有例外的不平等人格,而是自1804年《法國民法典》始,涵蓋到所有自然人,奴隸、婦女、黑人等不再是“會說話的工具”,所有自然人平等地成為法律主體;三是隨著經(jīng)濟(jì)社會變遷和法律關(guān)系理論深入發(fā)展,19世紀(jì)末的《德國民法典》進(jìn)一步抽象出權(quán)利能力、行為能力的概念,在自然人主體之外擴(kuò)展擬制出“法人”人格,“法律人格”概念實(shí)現(xiàn)了從“生物人”向“法律人”的華麗轉(zhuǎn)型,現(xiàn)代法律人格制度自此成功建立。


法律人格的發(fā)展具有開放性和抽象性,特定的組織通過權(quán)利能力的賦予,實(shí)現(xiàn)了財(cái)產(chǎn)與實(shí)體的獨(dú)立化,擁有了法律上的人格,成為了“法人”。法人擬制說的主要貢獻(xiàn)是將法律擬制的對象“由自然人擬制為法律人擴(kuò)展”到“由自然人擬制為抽象實(shí)體”。其核心觀點(diǎn)體現(xiàn)為以下三點(diǎn):第一,將自然人的法律主體資格與法人從根本上區(qū)別開,前者才是真正的主體,團(tuán)體人格并非來自法人本質(zhì),而是來自于自然人,也即“權(quán)利義務(wù)之主體,應(yīng)以自然人為限”;第二,法人雖有權(quán)利能力,但無行為能力,法人的法律行為只能由法定代表人代理;第三,法人機(jī)關(guān)與法人的關(guān)系是雙重人格的代理與被代理關(guān)系。法人擬制說中權(quán)利能力和行為能力的分離受到了天賦人權(quán)影響。以權(quán)利為載體的權(quán)利能力必然體現(xiàn)和彰顯自然人的人格和意志,而法人顯然不具備這些基本的要素,因此賦予法人權(quán)利的資格已經(jīng)屬于超越自然法的法律擬制,更遑論法人的行為能力賦予。一方面法人有賦予其權(quán)利能力的歷史必然性;另一方面法人又無法依賴自身行使權(quán)利,權(quán)利能力與行為能力二分可以較好地處理以上矛盾。法人不能通過法律擬制獲得如同自然人擬制那樣完整的權(quán)利能力和行為能力,但是通過法人背后的人來行使權(quán)利能力同樣可以發(fā)揮法人在社會經(jīng)濟(jì)運(yùn)作中的功能。


事實(shí)上,我國在部分侵權(quán)案件中,已經(jīng)有限度的涉及了人工智能體。在許霆案中,“自動取款機(jī)”憑什么在沒有任何銀行人員在場管理或操作之下,可以與客戶獨(dú)立完成一系列存款取款等法律行為?“自動取款機(jī)”究竟只是一個(gè)機(jī)械工具,還是被銀行人員授權(quán)的有相對智能性和意思表達(dá)性的法律上的“代理人”。從民法教義學(xué)的角度來看,人工智能的民事法律人格類似于法人,具備有限的權(quán)利能力,但沒有行為能力(至少現(xiàn)在沒有),且其權(quán)利的行使有賴于自然人。原因如下:


1.人工智能缺失“意志理性”。意識、意志和理性三者有機(jī)內(nèi)化融合于法律主體之中且密不可分,人作為社會關(guān)系的總和,本質(zhì)上就是意志的存在形式,因而能在有自主意識的基礎(chǔ)上進(jìn)行有選擇、有目的的認(rèn)識活動和改造活動。正是基于此,法律通過調(diào)整人的意志行為,維護(hù)社會公平與秩序,并確認(rèn)、形成、鞏固和發(fā)展社會關(guān)系。意志和理性是確認(rèn)有無法律人格的重要因素。然而,人的意志和理性并不等同于人工智能的邏輯運(yùn)算,因?yàn)闆Q定其發(fā)揮功能和作用的算法并不能與作為設(shè)計(jì)者、制造者的自然人相分離,其擁有的判斷能力來自程序和算法的設(shè)置,無法完全進(jìn)行具有自主意識的思維判斷和行為活動。人工智能缺乏自然生命所與生俱來的“靈性”和“創(chuàng)造性”,無法應(yīng)對超出其程序之外的突發(fā)狀況,不能應(yīng)對其從未被訓(xùn)練過之事。而且,人工智能也不具備“喜怒哀樂”的“欲求”,缺乏內(nèi)在訴求,這種欲望的匱乏不僅在哲學(xué)視角下無法成為法律主體,在法律視角下也無法產(chǎn)生民事活動的動機(jī)。


2.人工智能缺乏“責(zé)任能力”。責(zé)任指的是有能力對自己的行為負(fù)責(zé),而且只有人才有能力對所做的事情負(fù)道德上的責(zé)任,這也是人區(qū)別于其他生物體所在,這也就是法律上“自己負(fù)責(zé)”理論。在法律上,承擔(dān)責(zé)任的方式主要有行為擔(dān)責(zé)和財(cái)產(chǎn)擔(dān)責(zé),并且財(cái)產(chǎn)擔(dān)責(zé)占據(jù)主要部分。在一定程度上,“人格與人的基本物質(zhì)條件相連接”,“無財(cái)產(chǎn)即無人格”,財(cái)產(chǎn)實(shí)際上成為決定是否具備法律人格、考察是否具備責(zé)任能力的最為重要的衡量因素。從法律主體制度的歷史追溯來看,無論是自然人范疇的擴(kuò)充,還是法人的擬制,這些法律主體外延的展伸過程都秉持以財(cái)產(chǎn)為核心要素的責(zé)任能力作為判斷標(biāo)準(zhǔn)。人工智能在相關(guān)實(shí)踐活動中確實(shí)能產(chǎn)生一些財(cái)產(chǎn)性收益,但這些應(yīng)屬于其背后的實(shí)際控制人——因?yàn)槠渌鞒龅男袨槠鋵?shí)是基于實(shí)際控制人的意思表示,所以法律主體應(yīng)該是控制人本身而非人工智能——其僅是法律活動中憑借的“工具”。在司法實(shí)踐中,當(dāng)人工智能體發(fā)生侵權(quán)事件后,一般也是由制造商、所有人或控制人根據(jù)過錯(cuò)來承擔(dān)相應(yīng)的賠償責(zé)任,人工智能體既無能力也無財(cái)產(chǎn)予以賠償。相反,若由人工智能體進(jìn)行賠償,則可能導(dǎo)致上述主體出現(xiàn)“責(zé)任甩鍋”的逃避行為。


(二)人工智能體的刑事法律人格——面向未來的人格化可能性


人工智能可以分為強(qiáng)人工智能和弱人工智能。弱人工智能體是指不能制造出真正地推理(reasoning)和解決問題(problem solving)的智能機(jī)器,這些機(jī)器只不過看起來像是智能的,但是并不真正擁有智能,也不會有自主意識。“強(qiáng)人工智能是指有自我意識、自主學(xué)習(xí)、自主決策能力的人工智能,也是人工智能發(fā)展的終極目標(biāo),但是在意識問題沒有解決之前,強(qiáng)人工智能的實(shí)現(xiàn)還有很長的路要走?!痹诂F(xiàn)階段人工智能依然應(yīng)用在特定技術(shù)、特定領(lǐng)域應(yīng)用,雖然有著一定的學(xué)習(xí)能力,但是并不能從根本上具有自主意識,仍然屬于學(xué)界所說的弱人工智能階段。因此,由于有責(zé)性缺失與刑罰無效,賦予現(xiàn)階段的人工智能體以刑事法律人格并不現(xiàn)實(shí),但隨著未來的自主智能機(jī)器將有能力完全自主行為,具備不需要人類介入或者干預(yù)的“感知—思考—行動”,不排除對其賦予主體地位的可能。但至少目前,“在機(jī)器人社會化應(yīng)用尚未真正實(shí)現(xiàn)之前,法律僅允許機(jī)器人權(quán)利的必要擬制、有益擬制?!?/span>


因此,探討人工智能體的刑事法律人格問題,應(yīng)著眼于現(xiàn)有規(guī)范體系難題,尤其是深度算法的獲得以后,機(jī)器人具有自我學(xué)習(xí)或深度學(xué)習(xí)以后,如何讓其承擔(dān)刑事責(zé)任的問題。尤其是無人駕駛技術(shù)的發(fā)展,導(dǎo)致無人駕駛產(chǎn)品的侵權(quán)或“犯罪”的增加,現(xiàn)有的研究還主要著眼于讓相關(guān)技術(shù)人員或產(chǎn)品生產(chǎn)者等環(huán)節(jié)來承擔(dān)民事責(zé)任,能否追究該領(lǐng)域的相關(guān)產(chǎn)品的刑事責(zé)任,以及如何來承擔(dān)相關(guān)刑事責(zé)任,尤其是“刑事責(zé)任”的承擔(dān)要求行為主體的意識性、自主性以及罪責(zé)能力等法律教義學(xué)的背景下,如何對該領(lǐng)域,尤其是民事責(zé)任承擔(dān)無法降低整個(gè)社會風(fēng)向的背景下,刑事責(zé)任的承擔(dān)也會提升日程。面對未來法治,有學(xué)者為人工智能體設(shè)計(jì)了具體的“刑罰”類型:“適用于人工智能的刑罰可以有三種,即刪除數(shù)據(jù)、修改程序、永久銷毀。”從形式上,“刪除數(shù)據(jù)”“修改程序”“永久銷毀”系對于人工智能體實(shí)施的技術(shù)操作,并會導(dǎo)致其本體的狀況改變。這種觀點(diǎn)有一定的啟發(fā)性,尤其是面對日益發(fā)展的人工智能體,尤其是深度算法和自主學(xué)習(xí)能力獲取以后,如何分配無人駕駛等領(lǐng)域的刑事責(zé)任問題,也是一個(gè)亟需研究的課題。


(三)人工智能的知識產(chǎn)權(quán)法律人格——雙重主體共同參與


20175月,微軟小冰在學(xué)習(xí)了519位詩人的現(xiàn)代詩、訓(xùn)練超過10000次后,創(chuàng)作完成了詩集《陽光失了玻璃窗》,并正式出版。除了微軟小冰,其他公司也開發(fā)了眾多人工智能產(chǎn)品用于創(chuàng)作各類文學(xué)和藝術(shù)“作品”。例如,谷歌開發(fā)的人工智能DeepDream可以生成繪畫,且所生成的畫作已經(jīng)成功拍賣;騰訊開發(fā)的DreamWriter機(jī)器人可以根據(jù)算法自動生成新聞稿件,并及時(shí)推送給用戶。這些由人工智能創(chuàng)作的成果從外觀形式來看,與人類創(chuàng)作的成果沒有任何區(qū)別,而且也很難被察覺并非由人類所作。21世紀(jì)以來,人工智能在“深度學(xué)習(xí)”的基礎(chǔ)上,已經(jīng)完全能夠脫離原有程序設(shè)計(jì)者,結(jié)合外界環(huán)境學(xué)習(xí)經(jīng)驗(yàn)并獨(dú)立創(chuàng)造出新智力創(chuàng)作的成果。


人工智能獨(dú)立創(chuàng)作能力的出現(xiàn),對當(dāng)前著作權(quán)乃至知識產(chǎn)權(quán)領(lǐng)域的法律規(guī)則提出了新的挑戰(zhàn)。追溯知識產(chǎn)權(quán)制度的產(chǎn)生與發(fā)展,其最終目標(biāo)都是通過賦予權(quán)利人獨(dú)占性權(quán)利及取得利益的期待可能性來鼓勵(lì)和促進(jìn)創(chuàng)新。在目前的著作權(quán)法體系中,作品僅是指自然人、法人或其他組織創(chuàng)作的智力成果,作品的權(quán)利也只能由上述三者取得。由此出現(xiàn)一個(gè)新的難以回避的著作權(quán)問題:由人工智能創(chuàng)作出的智力成果能否成為著作權(quán)法體系當(dāng)中的“作品”,以及這種智力成果的權(quán)利歸屬由誰來取得。對此,著作權(quán)體系必須做出回應(yīng),確保其繼續(xù)合理保護(hù)智力投資、鼓勵(lì)計(jì)算機(jī)自主創(chuàng)造系統(tǒng)發(fā)展,同時(shí)需要平衡風(fēng)險(xiǎn),避免計(jì)算機(jī)自主生成作品的大量出現(xiàn)導(dǎo)致著作權(quán)體系的崩潰。


針對人工智能創(chuàng)作物的性質(zhì)認(rèn)定與法律保護(hù),在西方國家已出現(xiàn)了相應(yīng)的法律進(jìn)展。英國《著作權(quán)法》第9條規(guī)定,“作者”指的是創(chuàng)作人;在文學(xué)、戲劇、音樂等藝術(shù)作品來源于電腦的情況下,作者應(yīng)當(dāng)是對作品創(chuàng)作做出必要安排的人。該法第178條規(guī)定,電腦生成作品是實(shí)質(zhì)上沒有任何其他自然人參與作業(yè)、完全由電腦獨(dú)立創(chuàng)作產(chǎn)生的作品。根據(jù)其規(guī)定,即便在人工智能創(chuàng)造出創(chuàng)作物的情況下,也將其視為一般工具,其創(chuàng)作物的權(quán)利歸屬只是籠統(tǒng)地賦予“做出必要安排的人”,并未指明是管理人員、設(shè)計(jì)者還是程序的版權(quán)所有者。這實(shí)際上已經(jīng)暗示了計(jì)算機(jī)作為著作權(quán)人的主體地位,只是將其作品的權(quán)利歸屬仍然賦予了自然人。它一方面肯定了計(jì)算機(jī)獨(dú)立生成的內(nèi)容具有獨(dú)創(chuàng)性,另一方面又將未參與創(chuàng)作而促成計(jì)算機(jī)生成作品的主體視為作者。從現(xiàn)有技術(shù)出發(fā),促成計(jì)算機(jī)獨(dú)立生成作品的主體一般為程序的創(chuàng)作者或使用者。在美國,一個(gè)由人工智能系統(tǒng)設(shè)計(jì)的衛(wèi)星天線已被授予了專利權(quán),專利權(quán)人是原程序的設(shè)計(jì)者。20164月,日本政府知識產(chǎn)權(quán)戰(zhàn)略總部決定著手保護(hù)人工智能創(chuàng)作小說、音樂等方面的知識產(chǎn)權(quán)。由于人工智能作品不屬于日本現(xiàn)行《著作權(quán)法》適用對象,因此日本將研究制定新法。相關(guān)方案也寫入了代表知識產(chǎn)權(quán)政策方針的《2016年知識產(chǎn)權(quán)推進(jìn)計(jì)劃》,并且“將為運(yùn)用知識產(chǎn)權(quán)進(jìn)行革新創(chuàng)造的企業(yè)和大學(xué)等挑戰(zhàn)者提供強(qiáng)有力的支持”。20172月,歐盟議會通過決議并提出:“對于計(jì)算機(jī)或者機(jī)器人創(chuàng)作的可版權(quán)作品,需要提出界定人工智能的‘獨(dú)立智力創(chuàng)造’的標(biāo)準(zhǔn),以便可以明確版權(quán)歸屬。”


從比較法的角度來看,世界各國目前仍未將人工智能視作獨(dú)立的知識產(chǎn)權(quán)法律主體,但都認(rèn)可人工智能治理成果的獨(dú)創(chuàng)性,即保護(hù)作品不保護(hù)“人”。要解決人工智能在知識產(chǎn)權(quán)上的主體問題,必須面對兩個(gè)問題:財(cái)產(chǎn)權(quán)利如何保護(hù)分配、以及行為責(zé)任如何承擔(dān)。從目前來看,將權(quán)利與責(zé)任歸于人工智能本身并無異議,因?yàn)榧词乖试S人工智能如同法人一樣,具備獨(dú)立的財(cái)產(chǎn)權(quán)利與責(zé)任,但人工智能體并沒有利用財(cái)產(chǎn)權(quán)利的內(nèi)在訴求,也缺乏處分財(cái)產(chǎn)的制度保障。因此,較為合理的方式是以實(shí)行人工智能主體與傳統(tǒng)主體相結(jié)合的雙重主體模式,實(shí)現(xiàn)權(quán)利與義務(wù)的合理分配與統(tǒng)一協(xié)調(diào)。在人工智能未出售給他人之前,其創(chuàng)作物的權(quán)利主體地位由原始設(shè)計(jì)者與人工智能共享,責(zé)任義務(wù)也由二者共同承擔(dān)。在人工智能被出售給他人后,人工智能創(chuàng)作物的權(quán)利主體地位由所有者與人工智能共享,責(zé)任義務(wù)也由二者共同承擔(dān)。


綜上,由于目前人工智能體仍不具備完全的自主能力與理性,即處于弱人工智能時(shí)代,但是也應(yīng)看到,自主學(xué)習(xí)和深度學(xué)習(xí)能力算法的發(fā)展,面對很多對現(xiàn)有法律規(guī)范進(jìn)行沖擊的領(lǐng)域,我們亟需相應(yīng)的法律方法或方式來進(jìn)行應(yīng)對。就人工智能體法律人格化問題,筆者認(rèn)為,通過擬制的方式,有有限承認(rèn)其一定的法律人格,可能更有利于規(guī)范的完善和適用,尤其民事領(lǐng)域和知識產(chǎn)權(quán)領(lǐng)域,實(shí)踐逐漸給我提出了很多的問題,也給我們解決問題提供了一些啟示。即使在備受爭議的刑事領(lǐng)域,隨著深度算法的發(fā)展,無人駕駛領(lǐng)域能否讓人工智能體承擔(dān)相應(yīng)的刑事責(zé)任問題,也有人進(jìn)行了思考。而且這種討論,會隨著技術(shù)和實(shí)踐的發(fā)展,而不斷走向開放和深入。


結(jié) 語


科技的迅猛發(fā)展為現(xiàn)代人的生活帶來了極大的便利,也讓我們對未來的生活充滿了愿景。傳統(tǒng)的規(guī)則已不能很好地的處理人工智能引起的法律關(guān)系與權(quán)利義務(wù)問題,而目前論證人工智能具有法律人格的幾種途徑,均存在邏輯上的瑕疵。從法律擬制的角度,正因?yàn)榉擅鞔_了主體權(quán)責(zé)、行為規(guī)范,才有了法律意義上的“人”,因而所有的法律人格都具有擬制性。而設(shè)立法律上“人”的定義,正是因?yàn)檫@合乎人類的需求。因此,在有助于調(diào)整人工智能產(chǎn)生的法律關(guān)系與有助于進(jìn)行其產(chǎn)生的權(quán)利義務(wù)關(guān)系的配置的前提下,賦予人工智能以法律人格具有應(yīng)然性。從民法的角度出發(fā),由于人工智能缺乏“意志理性”與“責(zé)任能力”,人工智能尚不具備行為能力,但可以賦予其類似于法人的有限權(quán)利能力。從刑法的角度來看,人工智能體的發(fā)展,其刑事責(zé)任能力承擔(dān)的問題并不是十分緊迫,但著眼于深度學(xué)習(xí)能力和某些領(lǐng)域,如無人駕駛等也不斷給傳統(tǒng)刑事責(zé)任認(rèn)定提供很多挑戰(zhàn)。從知識產(chǎn)權(quán)的角度出發(fā),應(yīng)當(dāng)認(rèn)可人工智能的“創(chuàng)造物”,但由于人工智能自身權(quán)利能力和行為能力的缺失,采取雙重主體共同參與、由人工智能與原始設(shè)計(jì)者共享主體地位并承擔(dān)責(zé)任義務(wù)更為妥帖?!叭斯ぶ悄懿⑽磳Ψ苫A(chǔ)理論、基本法學(xué)教義提出挑戰(zhàn),受到挑戰(zhàn)的只是如何將傳統(tǒng)知識適用于新的場景”。因此,現(xiàn)階段不宜急于求成、一步到位的賦予人工智能以法律人格,根據(jù)人工智能的能力發(fā)展與實(shí)際場景需求,不斷地完善人工智能的權(quán)利能力與行為能力體系,才能更好地解決人工智能發(fā)展中不斷出現(xiàn)的新法律問題。


圖片2.png


《數(shù)字法治》專題由華東政法大學(xué)數(shù)字法治研究院特約供稿。專題統(tǒng)籌:秦前松

編輯:海洋

已經(jīng)到底部