中國共產黨新聞網>>理論
分享

“人工智能是否應具有法律主體地位”的倫理審思

李凌

2024年09月09日08:30    來源:光明日報

原標題:“人工智能是否應具有法律主體地位”的倫理審思

【學術爭鳴】

隨著大語言模型的應用普及,生成式人工智能表現出越來越強的自主性,不僅讓人們看到強人工智能的可能性,而且再次激發人們對這一人類創造物的主體地位的探討。近期,光明日報理論版刊發多篇文章,對人工智能是否應該成為法律主體進行探討,較為全面展現出學界主要觀點。其中,《人工智能成為法律主體不存在理論障礙》與《有限法律主體:人工智能法律地位的合理選擇》兩篇文章,從哲學與倫理學角度進行論証,提出人工智能成為法律主體與哲學領域對人主體性要素的認識不矛盾、不會貶低人的主體地位、不會損害以人為中心的主體制度等觀點。對此,筆者認為:這些論証並未把握主體何以是主體、人格何以為人格的本體論要旨。即使從最底線的人文主義而論,作為萬物靈長的人類也有著不同於萬物的人格尊嚴與主體地位。賦予人工智能主體地位,不僅有損人類的人格尊嚴和主體地位,而且並不利於現實的責任歸因與承擔。

人的在場是構成“主體”的根本條件,而人工智能隻能作為客體

討論人工智能是否應具有法律主體地位的前提要件,是人工智能能否構成主體或者說人工智能是否具有主體性。主體是個具有特定指稱的哲學概念,倘若人工智能無法從哲學上証成主體,那麼也難以從法律關系上賦予其主體資格。

然而,即使是具有較強自主性和獨立性、表現出一定情感意識的生成式人工智能,離具備主體地位也相差甚遠。雖說在不同哲學家那裡,主體及主體性具有不同內涵界定:亞裡士多德將主體視為承受者,笛卡爾將主體視為具有自我意識的思考者,康德將主體界定為理性存在者——但都不外乎與單數或復數的人相關。馬克思更是直接指出:主體是人,客體是自然,“人始終是主體”。可見,隻有人,並且是有目的、有意識地認識或者改造世界的人,才構成主體。由人而來的主體,既可以是個體,也可以是群體、組織機構,乃至整個社會,但必須有具體的、實踐的人的存在與在場。

人作為主體最本質的規定性是主體性,主體性最重要的內容是人的創造性與實踐性,即主觀能動性或者說自我意識。這是人之為人、人為主體最根本的特征。到目前為止,人工智能包括生成式人工智能雖然表現出日益強大的學習能力和一定的自主行為能力,但其所解決的問題仍只是封閉場景下的計算求解問題,無法對外界環境自行設定目標或計劃,進行自主能動的反饋,遠遠沒有“進化”出自我意識或者說能動性,因此人工智能並不具備人所特有的那種主體性,也就無法構成主體。

更進一步,人工智能也不能構成法律主體或有限法律主體。《有限法律主體:人工智能法律地位的合理選擇》提出,民事主體從“人可非人”到“非人可人”的歷史演變,反映民事主體去臉龐化與去倫理化的特征。但任何擬制主體的根基都可以追溯到人的存在或在場。這非但沒有與唯有人作為主體的理論相違背,反而強化唯有人才可作為主體的理念。一方面,公司、社團等法人的建構,可以視為復數人的集合,法人作為法律主體的核心要素仍是享有權利義務並承擔一定責任的人﹔另一方面,非人組織構成法律主體的哲學根基,並非主張一種強的人類中心主義,而只是在強調最底線的人文主義,即有人的存在或在場。對完全自動化、脫離或獨立於人而存在的人工智能賦予法律主體地位,在根本上背離了這一哲學宗旨。

人工智能本質上是服務人類的工具,“人格”概念從根本上拒斥工具價值

相比於主體論層面的論証或反駁,圍繞人工智能是否具有法律主體地位的爭論更多集中在人格論層面。持肯定說的學者主要通過提出法律人格擴展論、電子人格論、工具類人格論、有限人格論等觀點,為人工智能建構新的人格類型,以此証成人工智能的法律主體地位。但是,與“主體”一樣,“人格”也是具有特殊內涵和價值的概念。人工智能並不享有人格尊嚴,賦予人工智能相應人格,反而有可能威脅人類人格尊嚴的保護與實現。

人格及其尊嚴的概念是啟蒙運動以來高揚人性、追求文明進步的現代產物,其從先驗、抽象和普遍的角度標示出人之為人不同於動物或其他事物的獨特之處。正如康德所言,有些存在者,它們的存在雖然不基於我們的意志而是基於自然,但如果它們是無理性的存在者,它們就隻具有作為手段的相對價值,因此叫做事物,與此相反,理性存在者就被稱之為人格﹔人以及一般而言每一個理性存在者,都作為目的而實存,其存在自身就具有一種絕對的價值。人格及其尊嚴的概念,彰顯出人類作為目的本身而非其他目的的手段或工具而存在的內在價值與絕對價值,因而不僅成為人類社會最重要的價值源泉,而且構成人權的重要基礎,成為《聯合國憲章》及世界各國憲法的立法基礎。

然而,作為人類創造物的人工智能不僅不享有作為目的本身和內在價值而存在的人格性,而且由於錯誤或不當的使用開始出現威脅或損害人類人格尊嚴的現象。一方面,人工智能本質是人類發明創造出來用以拓展人類自由、提高人類能力與效率的復雜工具,它從誕生到運行再到消亡的全生命周期都是服務於人的,因而自始至終都隻具有工具性的相對價值,而不可能具備像人類這般的絕對價值,也就不享有人格尊嚴,即使以后出現擁有自我意識的強人工智能,仍不能摒棄工具價值的定位﹔另一方面,人工智能的無節制發展,通過對人的身體、身份和行為數據進行大規模的採集和運算,導致侵犯隱私、控制精神、誘導消費、造假欺騙等道德失范問題,已經在一定程度上威脅到人的主體地位及人格尊嚴。

由於“人格”從根本上拒斥工具價值,因此如《有限法律主體:人工智能法律地位的合理選擇》一文提出有限的工具性人格主張,將人格與工具、有限等詞匯捆綁起來的構詞法既不嚴謹也無益處,隻不過是后人類主義通過類比、隱喻等文學機制進行的過度想象,它本質上只是賦予人工智能經濟性的財產權利,與真正的人格權相差甚遠。人格尊嚴彰顯了人之為人的獨特性,對人工智能賦予人格尊嚴,將非人實體或存在轉化為與人類同等重要的存在,既不利於人權保護也無助於人工智能向善發展,最終結果是不斷消解人之為人的獨特性以及在此基礎上形成的人格尊嚴。

成為法律主體無助於解決人工智能的歸責困境,反而制造更復雜局面

賦予人工智能主體地位的另一種具有較強辯護性的理由來自現實發展需要說,即由於人工智能的大規模應用和自主性、智能化程度的日益提高,導致了現有法律框架在實施過程中出現找不到法律主體、無法責任歸因或無法追究責任等現實困境。例如在合同法領域,智能機器人代替人簽訂合同已經司空見慣,但是依托智能程序訂立的買賣合同究竟表達了誰的“意思自治”,法律機制尚不明確。再如在侵權責任法領域,如果自動駕駛汽車在行駛過程中發生事故,造成傷害或侵權行為,如何進行責任歸因成為棘手難題,究竟是由智能程序設計者、汽車制造者還是使用者抑或受害者承擔責任,現行法律制度已難以作出有效判定。還比如,生成式人工智能將會導致顯著的知識產權問題,但是賦予機器人知識產權,從根本上違背了保護創新的立法初衷。

因此有學者從實踐需要的角度提出,賦予人工智能主體地位或法律人格迫在眉睫,明確並建立人工智能的責任分擔機制。《人工智能成為法律主體不存在理論障礙》提出,“可以參照公司法人的資本制度,通過出廠設定強制責任保險的方式保障人工智能的責任財產”,《有限法律主體:人工智能法律地位的合理選擇》一文也提出“統一為人工智能開設相應信托賬戶、購買保險等方式”,使人工智能以特殊的權利義務承擔者身份參與到民事法律關系中,解決實踐需要的責任歸因與歸責困境。但是這些財產權利的設計無須上升到賦予人工智能主體地位或人格權的高度,隻需要適當補充調整與人工智能有關的自然人或法人的財產制度。

賦予人工智能法律主體地位不僅無助於走出人工智能產生的歸責困境,反而會由於引入新的不必要的“法律主體”造成更為復雜的歸責局面。的確,人工智能技術早已不是農業時代的工具或工業時代的機器那麼簡單,而是疊床架屋為如美國學者芒福德所說的“巨機器”或海德格爾所說的“座架”那樣與人深度耦合的復雜系統,人們以不同身份在不同環節以不同機制發揮作用並促成人工智能技術功能的實現,形成多個責任主體與復雜交互行為的“分布式責任”局面。不過,分布式責任只是拉長了行為之間的因果鏈條,加大歸責的難度,並不會導致責任的消失或轉移。作為人工智能的創造者或使用者,人們有責任將復雜系統各個環節各種機制的責任分布梳理清楚,並且進行明確的責任歸因。即使由於“算法黑箱”導致的不透明或者生成式人工智能以意想不到的方式作出的帶有一定自主性的行為,仍然可以採取共同責任或嚴格責任的方式予以歸責。無論如何,人工智能都是人們為了某一目的創造出來的,因此必須為其創造或使用的整體行為承擔責任,而不是將責任轉移到沒有主體地位和人格資質的非人存在。否則,讓人工智能代替人類承擔部分或完全責任,難免產生相互推諉、李代桃僵等更為復雜的局面,甚至因無人擔責而導致責任的消失。

嚴格來說,人工智能的各種自主或智能行為,仍只是依據人類以往經驗或者數據作出的概率論選擇,本身是人類意志與價值的延伸與投射,因此我們必須將責任明確歸結到創造或使用這一人工物的具體的單數或復數的人,讓更多人為這些難以控制的復雜集體行為承擔責任,以更加謹慎合理地運用人工智能。

(作者:李凌,系復旦大學馬克思主義研究院副研究員)

(責編:黃瑾、萬鵬)
微信“掃一掃”添加“學習大國”

微信“掃一掃”添加“學習大國”