爭議AI法官:演算法秘而不宣還是公之於眾?能成為審判責任主體嗎?丨快評

近日,一款聊天機器人ChatGPT讓人工智慧(AI)再次成為火爆的話題,讓記者編輯、設計師甚至程式設計師都感覺到了威脅。那麼,如果AI遇上司法會發生什麼?AI能代替法官審理案件嗎?最高法日前釋出《關於規範和加強人工智慧司法應用的意見》,為AI在司法領域的應用制定了初步的規則。

根據上述意見,AI可用於輔助事務性工作,還可以輔助裁判、輔助生成和審查法律文書,還可以進行案件裁判偏離度預警、終本案件核查、不規範司法行為自動巡查等等。透過這些AI技術的應用,可以降低司法人員工作負擔,提高司法效率,也有助於促進類案同判,促進裁判尺度統一,發現司法腐敗風險,保障司法廉潔。

比如目前實踐中應用最多的智慧語音識別技術,能夠將法庭上各方發言實時轉化為文字,大大提高了書記員的工作效率。一些司法AI已經有了初步判案能力,可以做到識別案件的關鍵爭議點,確定應該適用的法律,生成判決建議,輔助寫作判決書,可以提高法官的判案效率。另外,司法AI還可以透過對以前同類案件的判決結果進行分析,提出類似的判決建議,做到“類案同判”。

不過,如同其它領域應用一樣,司法AI也可能存在技術和法律方面的問題。

技術上,司法AI可能有兩種技術方案:一種是從法律條文出發,透過精密的設計相關演算法,對法律規定作出解讀,然後套用到具體案件中,比如對盜竊罪,根據涉案數額的不同,判罰不同的刑期。這一方案的問題在於,演算法可能過於複雜,而且很難事先就將現實案件中的不同情節都考慮到,難免會不夠精準。

另一種技術路線則是現在最火的深度學習技術。透過對海量審判案例的“學習”,讓AI自己訓練出一個模型,用於指導以後的審判。這一方案也可能受到多種因素的干擾,導致其模型出現偏差。其中最重要的是AI所學習的資料集的質量可能參差不齊,其中的很多案例,可能並不是對法律的正確解讀和適用,這就可能對AI形成誤導,造成訓練出的模型出現問題。在其他領域的深度學習模型訓練中,經常會因為訓練資料集錯誤,而訓練出或者髒話連篇、或者具有反社會傾向的AI。

當然,AI技術是可以不斷進化的,無論是哪種技術路線,都有可能形成越來越完善的AI系統,足以勝任一般的審判任務。但要將AI用於判案,還存在著法律和倫理問題。

首先是演算法的公開性。如果將AI用於判案,人們需要對其有足夠的信心。司法AI演算法影響深遠,其開發者必須是經過公開選擇的,其演算法必須是公開的,應該經過法律、技術等專業人士的討論,也要經過更廣泛的公眾討論,並達成共識。這個演算法不應該是一個無法解讀的“黑盒子”,不然,人們無法預期其一致性。

最高法的意見也提出了“透明可信”原則,提出司法AI系統的各個環節都必須可解釋、可測試、可驗證,確保應用過程和結果可預期、可追溯、可信賴。但深度學習模型現在很難解決這個問題,我們可以觀察到模型的輸入和輸出,但是很難了解其內部運作,很難確切瞭解為什麼模型會選擇這樣處理,其處理過程對外界基本是不可瞭解的“黑盒子”。

從法律上,AI判案的效力及其糾正機制、責任承擔,都需要予以明確。現階段AI當然還不能獨立判案,最高法的意見明確規定,AI技術只能用於輔助審判,無論技術發展到何種水平,人工智慧都不得代替法官裁判。

但是在未來,隨著司法AI技術的進步,不排除AI獨立判案的可能性。那就需要對其法律效力進行明確。而且應該給予當事人不服AI判決的救濟機制,比如對AI判決可以上訴,終審判決必須由人類法官作出;當事人有權選擇人類法官進行審判;等等。還有AI判案的責任承擔。根據現在的規定,法官要對所審理案件的質量終身負責。AI能夠對案件質量負責嗎?如果AI判案出現錯誤,其責任應該由誰來承擔?

AI+司法,有可能對司法模式帶來根本性的變革。惟其如此,其應用必須經過廣泛的討論並達成共識。

辛省志