作者系國家社科基金重大項目“應對新一輪新科技革命的法治體系完善與基本法理研究”首席專家、2024年度《國家哲學社會科學成果文庫》入選者、中國政法大學錢端升講座教授
以人工智能與大數(shù)據(jù)結合為標志的新科技時代,預示著“算法社會”的到來。如果說傳統(tǒng)科技是一種輔助性力量,那么新科技則是一種超能型力量,尤其是具備深度學習能力的生成式人工智能的誕生,進一步強化了這種力量。面對新科技時代帶來的深刻變化,作為實踐知識的法學有必要作出及時回應。與主要應對具體法律問題的部門法學相比,為整個法學提供基本范疇、方法和價值的法理學,對新科技的回應具有更為深遠的影響,因為它可能觸及法學知識體系的基礎邏輯變革。
法學基本范疇的拓展與更新
法理學的首要任務在于為所有的法學分支學科提供共同語匯,即法學基本范疇。近代法學的基本范疇形成于19世紀中葉的工業(yè)社會,作為其基礎的核心形象是獨立甚至孤立的個人。在新科技時代,這一形象將發(fā)生顯著變化,法學基本范疇的內(nèi)涵也將隨之拓展。
以“法律行為”為例,傳統(tǒng)法理學將其定義為基于個人意思表示而產(chǎn)生法律效果的行為。行為人首先形成內(nèi)心的特定意思,再通過外在表示使其產(chǎn)生法律效力。例如,在傳統(tǒng)股票交易中,賣方以特定的價格拋出股票,買方在特定價位上買入股票,雙方就單筆交易達成合意。然而,在算法交易中,計算機的算法預先決定了在特定交易價格上買入或是賣出股票,無需就每一筆的交易都形成關于買入或賣出的具體“意思”,也無需與交易對方達成“合意”。事實上,算法無法產(chǎn)生類似于自然人內(nèi)心的那種意思,因為“意思”屬于心靈的能力。盡管如此,算法可以通過預設規(guī)則作出一般化的“表示”。今后很多反復出現(xiàn)的、程式化的社會交往活動,都可以由算法來主導而不影響其法律效果。這類活動注重外部安全和可預測性,能夠被程式化處理。它們無需單個的特殊“意思”,只需一種概括性的“表示行為”就足夠了。
在傳統(tǒng)法理學中,權利以個人為主體,是個人為了保護自身利益而享有的一種法律手段。在新科技時代,個人信息的法律保護成為焦點,而個人信息具有顯著的公共屬性。個人信息本身只是能夠識別特定個人的事實或記錄,雖然與個人相關,但不足以使個人對該數(shù)據(jù)具有支配利益。在網(wǎng)絡化、數(shù)據(jù)化、智能化的時代,個人數(shù)據(jù)不僅成為社會治理、企業(yè)管理創(chuàng)新和改善的資源,也成為科學、文化、藝術創(chuàng)新與進步的源泉。賦予個人對個人數(shù)據(jù)的排他性控制權,與人類社會進步發(fā)展的制度基礎相悖。但賦予信息主體對侵害個人信息行為的賠償請求權和訴權,的確更有利于個人信息的有效保護。個人仍然是權利的主體,但權利的基礎不再局限于個人利益,而在于或同時在于對公共利益的保護。因此,新科技時代為重新思考權利的傳統(tǒng)見解提供了契機。社會存在決定社會意識,科技帶來的社會關系的變革終將改變作為社會意識核心的“人的形象”,也會或快或慢地改變基于特定人的形象基礎上的法學基本范疇。
司法裁判理論的演進與堅守
法理學的一個重要分支是法學方法論,即關于司法裁判方法模式或法律推理的理論。在建設“數(shù)字法院”和“智慧司法”的背景下,這一領域受到大數(shù)據(jù)和人工智能的深刻影響。后者不僅帶來了司法裁判技術的更新,也對司法裁判的模式和觀念的傳統(tǒng)理解造成了沖擊。
傳統(tǒng)法理學將司法裁判視作法律推理的過程,典型的形式是“三段論”。裁判以法律規(guī)則為大前提,以案件事實為小前提,通過演繹推理得出必然性的裁判結論。然而,法律規(guī)則總是存在例外,也可能與同一法律體系中的其他規(guī)則相沖突。由于法律體系的規(guī)范數(shù)量十分龐大,不同規(guī)則總是分散在法律體系的不同部分,法官有時難以發(fā)現(xiàn)例外或沖突。大數(shù)據(jù)與人工智能的結合,顯著提高了通過個案發(fā)現(xiàn)同一法律體系中規(guī)則沖突及規(guī)則例外,尤其是隱性例外的可能性。一些法律智能系統(tǒng)內(nèi)置海量法律法規(guī),利用自然語言處理和語義分析技術,支持多維度檢索,如通過案由、法條關鍵詞、裁判規(guī)則,可快速匹配相關法條和司法解釋,并智能推薦相關性結果。
除了基于法律規(guī)則的推理外,司法人工智能還擅長基于案例的推理。許多智能輔助系統(tǒng)能夠支持全樣本案例庫的智能檢索和裁判預測。通過分析歷史判例和法律條文,系統(tǒng)可為法官推薦相似案例及其裁判理由,并生成初步判決建議。然而,將人工智能方法運用于案例推理仍存在困難。即便人工智能系統(tǒng)能通過深度學習分析歷史數(shù)據(jù),仍無法解決類比推理的關鍵問題,即如何證明待決案件與案例之間存在“法律上的相關相似性”。人工智能推理只能建立基于形式邏輯的技術化推理模式,而法官的推理往往涉及對競爭性價值和原則的取舍,涉及法政策學上的權衡。這凸顯了人工智能在價值認知上的短板:它只能建立鏈接,卻無法理解其意義;它只能考慮似真性和概率,卻無法作出法律評價。即便能夠從歷史數(shù)據(jù)中挖掘出隱藏的、未“標注”的信息并建立新的鏈接,它也無法理解這些鏈接的法律意義,更無法在新案件中標注出以前從未出現(xiàn)過但具有法律意義的新要素。歸根到底,只有人類才能賦予法律意義。盡管人工智能在常規(guī)的案例推理中能夠提高效率和理性化效果,但在創(chuàng)新性的類比活動中仍存在局限。
人工智能的技術化路線甚至會改變司法裁判的觀念本身。在傳統(tǒng)法理學中,司法裁判是一種追求裁判結論正確的論證和說理活動,但機器學習算法的基本邏輯在于,通過大數(shù)據(jù)分析訓練,發(fā)現(xiàn)人類司法裁判的內(nèi)在規(guī)律,并將其應用于對未來裁判的預測。而大數(shù)據(jù)分析訓練的基礎是基于過去裁判行為,即同類案件處理的歷史數(shù)據(jù)。算法的目標并非復現(xiàn)法律推理,而是尋找判決中各個參數(shù)間的相關性,即通過多種自動化的預設配置,將案件事實數(shù)據(jù)與裁判結論數(shù)據(jù)關聯(lián)起來,實現(xiàn)最佳匹配。本質(zhì)上,司法人工智能進行的是數(shù)據(jù)運算而不是論證說理,追求的是統(tǒng)一裁判而不是正確裁判。自動化技術是一種形式化的演算過程。如果以這種形式化的演算過程來取代人類的論證和說理活動,將在很大程度上改變司法裁判的性質(zhì)。論證和說理是一種復雜的人類活動,其核心在于敏感語境下的價值判斷,這種復雜性不能也不應被機器學習算法簡化。盡管人工智能能夠輔助法官完成部分裁判工作,但司法裁判作為價值推理活動的性質(zhì)卻應當?shù)玫綀允亍?/p>
基本法律價值的因應與維護
新科技本質(zhì)上仍是一種技術,但任何技術都不可避免地涉及價值問題。在新科技的發(fā)展過程中,積極影響和消極影響通常相伴而生。從積極意義上看,算法和大數(shù)據(jù)分析能夠提升法律活動中人類行為的可預測性,促進社會秩序的形成,提升法律效能。然而,新科技也會與基本法律價值發(fā)生沖突,甚至會阻礙這些價值的實現(xiàn)。
在新科技時代,人的自主性需要得到更好的保護。人工智能的數(shù)據(jù)運算和機器學習讓公民能夠在多維空間擴展自身能力,例如借助機器人完成更為復雜的藝術創(chuàng)作。然而,這種技術也可能威脅個人的自主性,因為它削弱了個人在沒有外力操縱或扭曲現(xiàn)實的前提下進行自主選擇和自由生活的能力。這主要體現(xiàn)在兩個方面:一是數(shù)據(jù)和算法的不透明問題。人工智能系統(tǒng)搜集個人數(shù)據(jù)的手段和處理數(shù)據(jù)的方式往往缺乏透明度,從而形成“算法黑箱”,這將對個人的信息自決造成很大限制。二是信息繭房問題。在大數(shù)據(jù)時代,人們被各種各樣的數(shù)據(jù)追蹤和算法推薦所包圍。算法會根據(jù)個人用戶的數(shù)據(jù)留痕反復推薦同質(zhì)化的內(nèi)容,以迎合眼球經(jīng)濟。這種商業(yè)化邏輯決定了,它只會不斷強化個人用戶既有的偏好甚至偏見,而不會致力于塑造正確的觀念,同時也削弱了個人自主改變自己觀念的可能性。因為當人們所接觸到的信息只是不斷證實他們已有觀念時,這些觀念的自我重復和強化就會潛移默化地使他們喪失辯證思考的能力。為此,法律上應建立算法透明和可解釋機制,強化對個人被遺忘權和個人信息刪除權的保護,捍衛(wèi)個人自我發(fā)展和自我塑造的基本自由。
在新科技時代,人與人的平等需要在新條件下被更好實現(xiàn)。從某些方面看,大數(shù)據(jù)和人工智能似乎能夠促進平等。例如,司法人工智能統(tǒng)一了司法裁判尺度,有助于實現(xiàn)“同案同判”的目標,但這只是表象。新科技至少在以下四個方面帶來不平等:一是算法掌控者(設計者、擁有者、平臺等)與普通個人用戶在信息獲取和算力資源上的不平等。二是算法的商業(yè)邏輯造成的消費者個人間的不平等,最典型的就是大數(shù)據(jù)殺熟。三是算法技術邏輯帶來的“算法歧視”和“個人信用歧視”。算法在設計或使用時可能會對不同個人或社會群體進行不合理的差別對待。在大數(shù)據(jù)決策中,個人或關聯(lián)人員過去行為的信用評級往往決定了他未來獲得的可能性和機會,如信用卡延期還款行為可能會被貼上“失信”的標簽,從而影響未來的貸款。哪怕延期還款是出于疏忽,且只發(fā)生了一次,從而導致惡性循環(huán)。四是算法的技術邏輯和商業(yè)邏輯的結合帶來的“數(shù)字鴻溝”。它造就了信息社會欠缺數(shù)字知識、不熟悉信息技術的群體,使得他們的權利得不到充分保障。對此,法律必須立足于平等法律保護條款,加強對各種算法的審查,努力消除能力差距。
在新科技時代,安全價值也需要從各方面得到更好的保障。盡管人工智能與大數(shù)據(jù)技術能夠滿足個人和社會公眾的安全需求,例如,人臉識別、智能檢測系統(tǒng)、“保安機器人”這類人工智能系統(tǒng)可以保障公眾和個人的人身安全,然而,新科技也會對其他方面的安全價值構成嚴峻挑戰(zhàn)。主要體現(xiàn)在兩個方面:一是隱私安全。以區(qū)塊鏈技術為例,所有的數(shù)據(jù)都是公開的,同一數(shù)據(jù)會同步到多個結點,但這就可能涉及公民的隱私。大數(shù)據(jù)技術會收集和處理大量數(shù)據(jù),收集的數(shù)據(jù)越多,對個人私生活的潛在侵擾就越嚴重。此外,大數(shù)據(jù)能夠整合不同來源的數(shù)據(jù),構建個人畫像,從而揭露出個人不愿意公開的信息(如性取向、患有不治之癥等),甚至準確預測未來生活的細節(jié)。這會使得個人感到時刻處于“數(shù)字之眼”的監(jiān)控和安排之下,從而產(chǎn)生安全危機感。二是數(shù)據(jù)安全,既包括個人數(shù)據(jù)安全,也包括國家數(shù)據(jù)安全。個人數(shù)據(jù)的過度收集和濫用威脅個人安全,而當數(shù)據(jù)承載著國家的政治、經(jīng)濟、文化、生物等關鍵信息時,其泄露和濫用還可能危及國家主權、安全和發(fā)展利益。對此,應明文禁止算法進行全面“個人畫像”和不合比例的數(shù)據(jù)搜集,在總體國家安全觀下強化對數(shù)據(jù)安全的重視和保護,更好地維護安全價值。
新科技時代為法理學知識體系的更新提供了前所未有的機遇。對此,法理學應在變革與堅守之間找到平衡,針對不同領域采取差異化的應對策略。在概念理論方面,部分法學基本范疇的內(nèi)涵亟待與時俱進地更新。在方法理論方面,司法裁判的技術和模式將得到顯著提升,但無法完全取代以價值判斷為核心的推理。在價值理論方面,自由、平等、安全等人類珍視的價值都會受到不同程度的影響,它們在新科技條件下應更加被強調(diào),并通過法律路徑消解新科技帶來的負面影響。