以下文章來源于鄭老師的英國法課堂 ,作者鄭睿
上海海事大學法學院鄭睿副教授個人公號,專注解讀英國法。
2025年2月5日,英國上訴法院民事庭庭長、掌卷法官杰弗里·沃斯爵士(Sir Geoffrey Vos MR)受邀在英國“法律技術項目組”(LawtechUK)的生成式人工智能(Generative AI)專題活動發表了主題演講。
沃斯爵士的演講簡潔清晰地解釋了法律人使用生成式人工智能的理由。我在Deepseek的輔助下編譯了演講稿的核心內容,供讀者參考。
在法律界中搭建一座人工智能懷疑論者和人工智能愛好者之間的橋梁至關重要。律師和法官必須接受人工智能,而且有很多充分的理由說明他們應當接受,盡管這么做需要謹慎和負責任的態度,并花費一定時間。理由如下:
首先,法律制度和律師為工業、金融和消費領域服務,所有這些領域都將在各個層面使用人工智能,律師根本無法以生成式人工智能太危險或律師工作太精細而無法使用生成式人工智能為由而置身事外。
其次,過失使用或過失未使用人工智能的責任承擔問題將是未來幾年法律領域關注的一個重大問題,律師將站在問題解決的最前沿。英國司法技術委員會目前正在準備一份聲明,擬提出并回答如下問題:在何種情況下,基于什么法律依據,英國普通法會對因使用人工智能造成的有形損失或經濟損失施加責任?替代責任如何適用于人工智能造成的損失?專業人士在提供服務時,何時會因使用或未使用人工智能而承擔責任?如果律師不擅長理解生成式人工智能的能力和弱點,他們將無法就這些問題向客戶提供適當的建議。
第三,使用人工智能將節省時間和金錢,并使提供法律建議和解決爭議更加快速和高效。英國目前正致力于創建數字司法系統,該系統將允許數百萬的爭議在線通過適當地使用人工智能解決,而無需進入更昂貴和耗時的法院程序。該系統將匯集英國現有的在線申訴、在線調解、在線仲裁、在線法律咨詢和信息平臺,可能還會包括在線法律援助平臺。
每當提到生成式人工智能將為律師節省時間和金錢時,總會有人舉出律師使用生成式人工智能撰寫法律意見書時包含虛構案例引用的例子。我們不應該用一些糟糕的實踐例子來作為回避整個新技術的理由。
人工智能工具本身并沒有問題,只要我們理解它們在做什么,并適當地使用它們。因此,英國去年發布了《司法使用人工智能指南》。該指南中有三條簡單的信息,既適用于法官,也適用于律師。
首先,在使用生成式人工智能前,你需要了解它能做什么,不能做什么。大語言模型(LLM)經過訓練,可以從大量數據中預測最可能的詞語組合。基本的生成式人工智能不會參考權威數據庫來檢查其回復的內容。
其次,必須避免將機密信息輸入公共的大語言模型,因為這樣做會使這些信息對全世界公開。一些大語言模型聲稱是保密的,一些可以將其工作輸出與認可的數據庫進行核對,但確保保密性始終至關重要。
第三,當使用大語言模型來總結信息、起草文件或用于任何其他目的時,你必須在使用其回復的內容之前仔細審查。簡言之,要對工作成果負責的是你自己,而不是ChatGPT。
上周,澳大利亞新南威爾士州最高法院發布了生成式人工智能使用指南,包含了以下內容:第一,生成式人工智能不得用于生成宣誓書、證人陳述或其他用于證據或交叉詢問的材料內容;第二,如果生成式人工智能被用于準備書面意見或框架代理意見,作者必須核實所有引用和法源的準確性;第三,未經法院事先許可,不得使用生成式人工智能起草或準備專家報告。
和英國相比,澳大利亞新南威爾士州的做法更為嚴格。但需要指出的是,在很多法域,人工智能已經被用于新南威爾士州指南所禁止的某些用途。英國的指南可能更符合人工智能的當前使用情況:律師對其所產出的內容(無論是否是人工智能生成)應負有完全的責任。
總結一下,所有律師和法官都應該接受人工智能的三個重要理由是:我們所服務的行業正在使用它;它將使我們能夠以更低的成本為更多人提供服務,并使我們能夠更快地完成必要的工作;它將成為律師未來工作的核心,當爭議涉及人工智能被錯誤使用或應該使用但未使用時。
另外,人工智能在司法系統中的應用正在創造一個全新的局面,這就需要重新思考人類的基本權利。當前的監管工具,如歐盟的《人工智能法》,可能不足以保護人類免受機器作出的決定的影響。在機器能力極強的時代,僅僅立法規定決策必須由人類作出可能還不夠。
在一個機器比人類強大得多的世界里,檢查機器推薦給人類的每一個決策的完整性可能會變得過于耗時和昂貴。即使是現在,人類的福利和養老金水平也很可能是由算法確定的。希望哪些類型的決策在未來真正屬于人類的特權,哪些類型的決策人類愿意讓渡給機器,這是人類可以決定的。
國際法律界,而不僅僅是英國,需要考慮哪些類型的建議和決策應該或不應該由機器來作出。人們可能永遠不會對某些特別的決策(如是否將兒童從父母身邊帶走)由機器做出有足夠的信心,但也有著名學者持不同觀點。他們認為,這種情感上的決策恰恰是父母們真正希望從人類手中拿走的決策類型。現在很難說孰是孰非,但分歧表明,我們需要就我們希望機器能作什么,更重要的是我們認為機器不應該作什么,展開一場緊迫而廣泛的討論。
簡而言之,我們決定某些建議或決策不應由機器作出的原因必須是為了保護基本人權。在機器無疑將比人類更強大的世界中,現有的《歐洲人權公約》可能需要重新審視。
人權和法治仍然是司法系統的基石。毫無疑問,我們應該始終以促進和改善司法準入和決策質量為目標來使用生成式人工智能。人工智能在這方面提供了巨大的機會。