以下文章來源于鄭老師的英國法課堂
2025年7月底,英國負責法律改革的機構法律委員會(Law Commission)發布了題為《人工智能與法律》(AI and the Law)的討論文件(discussion paper)。該文件的核心目的并非提出具體的法律改革建議,而是全面地概述人工智能技術(特別是那些具有自主性和適應性的系統)對現有法律框架構成的挑戰,旨在引發公眾和專家對這些問題的討論,為未來可能的法律改革奠定基礎。、文件開宗明義,指出AI技術在21世紀取得了顯著進展,從早期的概念階段進入了實際應用,影響著社會生活的方方面面。盡管AI帶來了巨大的益處,但也帶來了法律上的挑戰。該討論文件的目標是系統性地探討這些挑戰,并為未來的政策制定提供信息。文件強調,它將聚焦于那些具有“自主性”(autonomy)和“適應性”(adaptiveness)的人工智能系統,因為這些特性使得人工智能的行為更難預測,從而對現有的法律原則和責任歸屬構成特殊挑戰。一、什么是AI及AI如何工作?文件的這部分為沒有技術背景的讀者提供了AI的基本概念。法律委員會采納了經濟合作與發展組織(Organisation for Economic Co-operation and Development,OECD)對AI的定義:AI是一種基于機器的系統,它根據接收到的輸入進行推斷,以生成能夠影響物理或虛擬環境的輸出,例如預測、內容、推薦或決策。AI有兩個關鍵特性:自主性(Autonomy):AI能夠在沒有人類直接干預的情況下做出決定或采取行動;適應性(Adaptiveness):AI能夠通過學習或自我優化來改進其性能,這意味著它的行為會隨著時間的推移而改變。這兩種特性使得現代AI與傳統的基于規則的軟件程序截然不同,正是這些特性導致了法律上的“責任空白”(liability gaps)問題。法律委員會指出,傳統的軟件是“確定性”的,相同的輸入產生相同的輸出;而AI系統則具有“概率性”,其輸出可能具有不確定性。二、AI可能產生何種法律問題法律委員會強調,AI的上述兩種特性是導致各類法律問題的根源。一個自主且適應性強的AI可能做出超出其最初設計者預期的行為,這使得追溯責任變得復雜。1. 因果關系確定傳統的侵權責任法要求證明被告的過失與原告的損害之間存在因果關系。然而,AI的復雜性、自主性和適應性使得AI造成損害時可能難以證明其行為與特定的人類決策或過失之間存在直接的因果鏈。例如,一個自適應的AI可能在運行過程中,通過與環境的互動而產生了一個意想不到的“行為”,進而導致損害。在這種情況下,將損害歸因于最初的程序員或AI的使用人可能會面臨挑戰。2. 主觀犯意(mental element)在許多刑事犯罪和某些民事過失案件中,法律要求證明被告具有特定的主觀意圖,例如“知情”(knowingly)、“輕率”(reckless)或“故意”(intentionally)。法律委員會指出,由于AI本身沒有意識或意圖,且其行為可能難以預測,因此將人類的主觀犯意歸咎于AI造成的后果變得非常困難。例如,如果一輛由AI控制的汽車違反交通規則,是應歸咎于開發者在編程時的疏忽,還是歸咎于用戶在使用時的不當?3. 責任主體 (who might be liable?)AI的開發和應用涉及一個復雜的供應鏈,包括:
開發者/程序員:創建AI算法和模型的個人或公司。
軟件集成商:將AI模型集成到最終產品中的實體。
用戶:將AI系統投入使用并可能對其進行配置的個人或公司。
AI本身:法律委員會將AI本身也作為一個潛在的“行為人”進行討論,但指出其缺乏法律人格。
法律委員會強調:在AI造成損害時,確定上述鏈條中的哪一方或哪幾方應該承擔責任是一個復雜的問題。目前的法律,如產品責任法,可能無法完全解決這一問題,因為AI可能不是一個“有缺陷的產品”,而是由于其自主行為導致了損害。
4. 不透明性(opacity)
許多AI模型,特別是深度學習模型,被認為是“黑盒”(black box)。這意味著即使是開發者也可能無法完全解釋為什么模型會做出某個特定的決策或預測。這種不透明性對法律程序構成了挑戰。例如:(1)在法庭上,被告可能難以解釋AI的決策過程,從而影響其辯護權;(2)如果AI在刑事司法中被用來輔助量刑或預測犯罪風險,其決策的不透明性可能與“公平審判”原則相沖突;(3)在民事訴訟中,原告可能難以證明AI的過失或缺陷,因為他們無法獲得關于AI內部運作的足夠信息。
5. 監督與依賴(oversight and reliance on AI)
法律委員會指出,人類用戶,特別是專業人士(如醫生、律師),對AI的輸出負有審查和核實的責任。過度依賴AI系統而不進行獨立的判斷可能會導致過失。例如,法律委員會引用了律師因依賴大語言模型(LLM)而引用了不存在的判例的例子,說明了人類監督的重要性。
6. 訓練和數據(training and data)
法律委員會簡要提及了訓練數據可能引發的法律問題,例如數據侵犯版權、隱私問題以及訓練數據中的偏見可能導致AI產生歧視性輸出。
三、要賦予AI獨立法律人格嗎?
討論文件最后,法律委員會作了一個“更具思辨性”的分析:是否應賦予AI某種形式的法律人格。法律委員會承認,這在法律界是一個有爭議的話題。其指出,如果賦予AI法律人格,那么AI將能夠擁有權利和義務,并能夠作為獨立的法律主體被起訴。不過,法律委員會也提出了反對意見:(1)不成熟的AI:目前的AI技術可能還未達到需要賦予其法律人格的程度;(2)意識缺乏:AI缺乏意識、情感和道德判斷能力,因此賦予其法律人格可能違背法律人格的基本原則;(3)責任轉嫁:這可能導致AI的開發者和用戶將責任推卸給AI本身。
法律委員會的結論是:目前為AI賦予法律人格可能為時過早,但這是一個需要持續關注和討論的長期問題。
四、總結
這份討論文件是一份前瞻性的法律分析,它沒有提供硬性的解決方案,而是系統性地梳理了人工智能(特別是自主和適應性系統)給現有法律框架帶來的根本性挑戰。核心問題在于,傳統的法律原則(如過失、因果關系和主觀犯意)是為人類行為設計的,而AI的非人類、非確定性行為模式使其難以適用。報告通過提出一系列問題,旨在為未來如何填補“責任空白”和確保法律在AI時代保持有效性提供一個清晰的討論路線圖。報告全文下載:https://lawcom.gov.uk/publication/artificial-intelligence-and-the-law-a-discussion-paper/