為什麼人工智慧應該害怕我們人類

為什麼人工智慧應該害怕我們人類

人工智慧正在逐漸趕上我們。AI 演算法現在可以在國際象棋、撲克和多人影片遊戲中始終如一地擊敗我們,生成與真實人臉無法區分的人臉影象,撰寫新聞文章(不是這篇!)甚至是愛情故事,並且比大多數青少年駕駛汽車更好。

但人工智慧並不完美,如果 Woebot 沒有任何指標的話。正如 Karen Brown 本週在《科學時報》上所寫的那樣,Woebot是一款基於人工智慧的智慧手機應用程式,旨在提供低成本的諮詢服務,透過對話引導使用者瞭解認知行為療法的基本技術。但許多心理學家懷疑人工智慧演算法是否能夠表達使人際關係治療發揮作用所需的那種同理心。

芝加哥心理治療行動網路(Psychtherapy Action Network)聯合主席琳達·邁克爾斯(Linda Michaels)表示:“這些應用程式確實縮短了基本要素——大量證據表明——有助於治療,也就是治療關係。” ,告訴泰晤士報。

當然,同理心是一條雙向的道路,我們人類對機器人的展示並不比機器人對我們展示的多得多。大量研究發現,當人們處於可以仁慈與仁慈的 AI 合作的環境中時,與機器人是真人相比,他們不太可能這樣做。

慕尼黑路德維希馬克西米利安大學的哲學家奧菲莉亞·德羅伊 (Ophelia Deroy) 告訴我:“互惠似乎缺少一些東西。” “我們基本上會比人工智慧更好地對待一個完美的陌生人”

在最近的一項研究中,德羅伊博士和她的神經科學家同事著手瞭解為什麼會這樣。研究人員將人類受試者與看不見的夥伴配對,有時是人類,有時是人工智慧;然後每一對都玩了一系列經典的經濟遊戲——信任、囚徒困境、雞和獵鹿,以及他們創造的一個叫做互惠的遊戲——旨在衡量和獎勵合作。

我們對人工智慧缺乏互惠通常被認為反映了缺乏信任。畢竟是超理性和無情的,肯定只是為了自己,不太可能合作,那我們為什麼要呢?德羅伊博士和她的同事得出了一個不同的、或許不太令人欣慰的結論。他們的研究發現,即使機器人熱衷於合作,人們也不太可能與機器人合作。不是我們不信任機器人,而是我們相信:機器人保證是仁慈的,是一個大寫的傻瓜,所以我們利用它。

之後與研究參與者的對話證實了這一結論。“他們不僅傾向於不迴應人工智慧體的合作意圖,”德羅伊博士說,“而且當他們基本上背叛了機器人的信任時,他們不會報告有罪,而對人類卻是。” 她補充說:“你可以忽略機器人,你不會覺得你違反了任何共同義務。”

這可能會對現實世界產生影響。當我們想到 AI 時,我們往往會想到未來世界的 Alexas 和 Siris,我們可能會與他們建立某種虛假的親密關係。但我們的大部分互動將是一次性的,通常是無言的相遇。想象一下,在高速公路上行駛,一輛車想在你面前併入。如果你注意到汽車是無人駕駛的,你就不太可能讓它進來。如果人工智慧不考慮你的不良行為,事故可能會接踵而至。