“芯”變“心”?AI也能讀懂人類價值觀?

不久前,在莫斯科國際象棋公開賽上,對弈機器人因為小棋手犯規,竟折斷其手指,這個新聞引起公眾一片譁然。

儘管官方解釋這並非機器人的自主判斷,而是機器誤將小孩的手指判斷成棋子,屬於程式錯誤。

但很多網友還是覺得實在太可怕了,驚呼

機器人革命

開始了,讓我們歡迎新的機器人世界。

“芯”變“心”?AI也能讀懂人類價值觀?

自人工智慧火熱起,關於其威脅論從未平息。

比爾蓋茨,馬斯克、霍金等科技界巨頭都曾公開發表言論,告誡人們應該警惕人工智慧技術。

馬斯克和霍金還因此獲得過IT與創新基金會頒發的

“阻礙創新”獎

霍金此前在《獨立報》上概括人工智慧的威脅:“儘管人工智慧的短期影響取決於控制它的人,但長期影響卻取決於它究竟能否被控制。”

從霍金的言論至今已過多年,

AI究竟能否被人類控制呢?

01

AI朝適配人類價值觀奮進

在7月14日,國際頂級學術期刊Science Robotics發表了北京大學朱松純團隊的最新研究成果——

實時雙向人機價值對齊

(Bidirectional human-robot value alignment)。

“芯”變“心”?AI也能讀懂人類價值觀?

團隊提出了一個可解釋的

人工智慧系統——XAI

,擁有一套機器實時理解人類價值觀的計算框架,並展示了機器人如何與人類使用者透過實時溝通完成一系列複雜人機協作任務。

無獨有偶,同樣在今年7月,DeepMind開發出了一套

“民主AI”

,用於經濟政策的制定。相比於人類制定的“平等主義”法和“自由主義”法,AI制定的新型經濟機制獲得了更多的選票。

“芯”變“心”?AI也能讀懂人類價值觀?

當我們再一次為AI擊敗人類而唏噓之餘,不難發現,

AI一直在朝著“適配人類價值觀”的方向發展和突破。

這也就是我們要談的價值對齊(Value Alignment)。

02

緣起

隨著進入元宇宙時代,人工智慧慢慢地滲透到我們生活的各處。

但是人工智慧帶來的負面影響也不斷地引起人們的擔憂,不僅有非危言聳聽的

人工智慧威脅論

,還有

“黑箱”的不可跟蹤問題

等等。

特別是在Alpha Go打敗李世石的時候,許多人為人工智慧迅猛發展感到開心,但是同時也會對其未來發展感到緊張不安。

電影《駭客帝國》、《機械公敵》等更是將人們的擔憂生動地刻畫在了大熒幕上。

“芯”變“心”?AI也能讀懂人類價值觀?

當人工智慧突破“三定律”時,誰都會不寒而慄。

早在人工智慧方興未艾之時,控制論之父諾伯特·維納(Norbert Wiener)便提出了

人機協作的基礎

“如果我們使用一個機器來實現我們的目標,但又不能有效地干預其運作方式,那麼我們最好能篤定,輸入給機器的目標是我們真正所預期的。”

這便是價值對齊。也就是說,為推動實現人安全自由且全面的發展,人工智慧的發展也應以增進人類福祉為目的,與人類的價值標準和道德規範相符合。

03

發展

浙江烏鎮舉辦的世界網際網路大會上,蘋果公司執行長庫克(Martin Cooper)提出了要把更好的人性與價值觀嵌入到人工智慧技術中的想法。

人工智慧技術不應該是冷冰冰的,人工智慧設計人員應強調程式設計和演算法的人文情懷,

將演算法背後的價值觀體現在程式設計的整個過程。

“芯”變“心”?AI也能讀懂人類價值觀?

設計過程包含著設計者的價值理念與價值判斷。

這種價值觀,從根本上說,是人類價值觀對智慧體的拓展和延伸,是人類意志和價值訴求在智慧體與環境互動和智慧決策過程中的具體體現。

如何將人類規範化的價值理念和價值標準轉化為形式語言,實現價值運算元嵌入到智慧體系統中呢?

據美國石英財經網站2016年11月1日報道,加利福尼亞大學伯克利分校計算機學教授斯圖爾特·拉塞爾認為:

“理性機器植入道德元素,如程式規則的行為,可能構成人工道德主體所需的理性。”

“芯”變“心”?AI也能讀懂人類價值觀?

復旦大學哲學學院教授徐英瑾認為:

“康德對於人工智慧科學家的啟發就在於:知覺的‘自上而下’進路(‘知性’或‘高階知覺’)和‘由下而上’進路(‘感性’或‘低階知覺’)都是不可或缺的。

因此一個更全面的人工認知模型將囊括這兩者。” 即

遵循自下而上的機器學習方式和自上而下的邏輯嵌入方式。

北京大學的朱松純團隊為了完成人與機器之間價值目標的雙向對齊,他們認為需要一種

人類價值主導的、動態機器-動態使用者的交流模式

在這樣一種新的模式中,機器人除了揭示其決策過程外,還將根據使用者的價值目標即時調整行為,從而使機器和人類使用者能夠合作實現一系列的共同目標。

“芯”變“心”?AI也能讀懂人類價值觀?

他們採用

通訊學習

取代了傳統資料驅動的機器學習方法,使得機器具有

心智理論

(ToM),而後機器將根據所推斷出的使用者的價值目標進行合理解釋,即理解他人的心理狀態

(包括情緒、信仰、意圖、慾望、假裝與知識等)

的能力。

設計擁有心智理論的系統不僅在於解釋其決策過程,還旨在理解人類的合作需求,以此形成一個以人類為中心、人機相容的協作過程。

04

未來

科技發展的路上必然存在著擔憂。

在面對DeepMind開發的“民主AI”時,有人認為強調民主目標不應該作為一種價值校準的方法,即

“以犧牲少數人為代價賦予多數人權利”

人們擔心人工智慧的部署方式可能會加劇社會中現有的偏見、歧視或不公平。

在2016年召開的首屆“國際人工智慧選美大賽”上,機器人專家組依據“準確評估人類審美與健康標準”對參賽選手的面部進行評判。

令人意想不到的是,最後比賽的獲勝者都是白人,這就是

技術權貴

設計的演算法未能考慮到其他膚色人種的評判需要所造成的歧視。

“芯”變“心”?AI也能讀懂人類價值觀?

“梅賽德斯-賓士”無人駕駛汽車的程式設計中也存在著不平等的價值標準。

針對在遇到緊急情況下智慧系統會優先選擇救路人還是保乘客的兩難問題,

賓士無人駕駛汽車的智慧系統會優先選擇保護駕駛員和乘客,但這並不能充分體現平等性原則。

人工智慧價值觀的構建並不會在短期內完全實現,而是需要一個長時間的認知過程和技術發展過程。

但我們必須相信,

價值觀引領的人文技術在未來人工智慧應用中。

人文技術在確保未來人工智慧的安全、可靠、可控以及實現人機和諧過程中必將發揮重要作用。

“芯”變“心”?AI也能讀懂人類價值觀?

展望元宇宙時代,隨著人類認知水平的大幅提高和智慧技術的飛速發展,人們對智慧機器的依賴程度不斷加深,人機融合將進入新的階段。

人機和諧發展必將成為後人類時代發展的主題。因此,實現人機的“價值對齊”也將會成為人工智慧研究的重大課題之一。

參考資料:

Koster, R。, Jan, B。, Tacchetti, A。 et al。 Human-centred mechanism design with Democratic AI。 Nat Hum Behav (2022)。 https://doi。org/10。1038/s41562-022-01383-x

Yuan, Luyao, et al。 “In Situ Bidirectional Human-Robot Value Alignment。” ScienceRobotics,vol。7,no。68,2022,https://doi。org/10。1126/scirobotics。abm4183。

包彥徵,鄧輝文。後人類時代人工智慧體的價值觀何以可能[J]。內蒙古社會科學,2021,42(01):59-66。DOI:10。14137/j。cnki。issn1003-5281。2021。01。008。

作者:楊湘宇 排版:駱偉玲

圖片源於Q仔網際網路衝浪所得,若有侵權,後臺聯絡,Q仔滑跪刪除~