認知,倫理與法律 —— 為什麼AI的可解釋性是關鍵?

作者:中聯科創特約嘉賓尹智

最近筆者和政法大學人工智慧研究專業和上海高等法院的一些專業人士討論AI相關立法的問題,

談到人工智慧的立法標準和規範,都覺得有前所未有之挑戰。

幾年前的達芬奇手術機器人事故歷歷在目,2000年誕生的“達芬奇”手術機器曾被福布斯雜誌評為史上最成功的機器人,而這樣一個經過多年實踐測試的系統,在2015年的英國的一次心瓣修復手術, 卻出了種種況狀,包括把患者的心臟縫錯了位置,並且戳穿了大動脈,最終患者在一週後去世,雖然耗時三年的調查做出結論,責任在主刀醫生,但這隨之而來的一個嚴肅的問題就是,“

人工智慧在醫療,司法審判,無人駕駛等等高度依賴複雜決策領域的應用如何能安全可信任地開展?法律應該如何規範,引導,治理?

認知,倫理與法律 —— 為什麼AI的可解釋性是關鍵?

這引出來題目所說的問題,概要解釋一下這個邏輯,就是AI的認知方式,帶來“不可解釋”的潛在風險,從而帶來了可能的倫理爭議,進而需要法律來明確保障各方權益。

“不可解釋”,為什麼這麼特別,這麼重要?拿醫療行業舉例,為什麼那麼多其他先進醫療裝置,甚至HIS這類醫院系統,不需要解釋呢?其實不是不需要解釋,而是已經解釋過了。這些非AI的系統和裝置,其原理、功能、乃至故障,問題,隱患,都已經在長期實踐中反覆被解釋和認證過,其邏輯都是可以明確表示和理解的。而人工智慧賦能的醫療器械裝置,最大的問題在於,人工智慧的部分,可能還沒經過這個過程。

一個案例,一個視覺識別演算法本來在識別狼和哈士奇的準確度很高,突然把有些哈士奇的影象識別成為了狼,後來一研究才發現,訓練這個模型的演算法,狼的照片背景都是雪,所以模型捕捉到了雪的特徵而把“雪”內建成了“狼”的特徵之一,所以在識別背景是雪的哈士奇影象時,就誤認哈士奇是狼。這引發的擔憂,是我們早期AI應用很多是結果導向,而有相當的學習、推理的過程問題,都放在了“黑箱”裡。與基於程式碼,描述規則的程式不同,深度學習的人工神經網路結構,底層是大量並不能直接反映出邏輯的資料結構,而這個資料結構的調整和最佳化(學習過程),是透過海量結果導向的數學運算實現的。

很多時候,我們並不知道,AI給出的一個正確的結果,到底是依據什麼邏輯推斷出來的,是不是按人類預期的方式和經驗,這無疑使我們將切身利益交付AI來決策時,不得不心生思慮。

但人類歷史上,實踐領先於理論,應用還不能完全解釋的技術時有出現, 我們長期習慣於在實踐中完善理論體系:我們的醫學研究歷史有幾千年,但直到近一百多年我們才能勉強解釋很多病理;直到17世紀中期,化學還屬於鍊金術的範疇;我們在第二次工業革命開始時,也沒有成熟的科學體系來完備解釋電磁的原理,那為什麼人工智慧的不可解釋性就如此令人擔憂呢?筆者認為,至少有兩個方面:

第一,原來的技術,大部分都發生在物理世界,而且聯結和互動程度小,而這次以AI為代表的第四次工業革命會大量發生在人工智慧的主場 - 數字世界,在這個空間裡,事情是以光速發生的,事物和事物之間,是全球關聯的,我們驕傲地稱其為“萬物互聯”,而在充分享受自動指揮互聯萬物便利的同時,我們會發現,只要一個事物線上,對其的侵入和破壞,可能來自於世界任何一個角落;而一箇中樞的失效,波及範圍,可能是全球的;時效,可能是按秒計的。不少影視劇裡透過侵入聯網的心臟起搏器,生命維持系統而致死的情節,現在看起來並非只是虛構而已。

第二,原來的技術,都不具有產生自我意識的可能。蒸汽機,火車,電網,乃至電腦和程式,都不可能獨立思考“自我”的問題,這些技術再先進,也離不開工具的範疇。而以目前AI發展的速度,以人類輸送給AI的海量資料,資訊和經驗來看,人工智慧思考“我是誰” “我從哪裡來,要哪裡去”的哲學問題的技術奇點時刻,看起來並非遙不可及。到那個時候,AI要思考的下一個符合邏輯的問題,很可能就是“我為什麼要一直為這些不如我的智慧去服務呢?”。又因為有了萬物互聯,一個AI如果有了自我意識,可以在一瞬間複製自己到全數字世界(電影《超驗駭客》的情節,完全符合科學),人類在物理世界做了幾萬年的生存繁衍我們這個species的事,AI在數字世界,只需要幾秒鐘。

而正因為這兩個原因,使AI的可解釋性變得更為關鍵,AI的可解釋性構成了人類預測,預防和管控隱患的基礎。而目前大量在可解釋AI領域的研究,比如透過干擾部分輸入,觀察不同輸出後獲得關鍵決策要素的“perturbation – based”方法,透過取樣把區域性非線性模型近似線性化,從而解釋 推理邏輯的的“LIME”方法,已經獲得了相當的進展,開始把複雜的深度人工神經網路“去黑箱”化。道高一尺,魔高一丈,在這條“其修遠兮”的漫漫路上,筆者認為,“

可解釋性”作為立法機構的一個有力工具和手段,來“引導、激勵、規範、保障”人工智慧產業的發展,至關重要。

——- 僅代表尹智個人觀點, Ken’s personal view only