首次發現!AI腦回路演化向人類更進一步,OpenAI最新研究引熱議

兩個月前轟動網路的AI設計大師CLIP,剛剛被OpenAI“扒開”了腦子。

沒想到,這個效能強大的AI竟和人類思維方式如此相像。

首次發現!AI腦回路演化向人類更進一步,OpenAI最新研究引熱議

打個比方,無論你聽到“炸雞”二個字,還是看到炸雞實物,都可能流口水。因為你的大腦裡有一組“炸雞神經元”,專門負責對炸雞起反應。

這個CLIP也差不多。無論聽到“蜘蛛俠”三個字,還是看到蜘蛛俠的照片,CLIP的某個特殊區域就開始響應,甚至原本用來響應紅色和藍色的區域也會“躁動”。

首次發現!AI腦回路演化向人類更進一步,OpenAI最新研究引熱議

OpenAI發現,原來CLIP有一個“蜘蛛俠神經元”。在腦科學中,這並不是啥新鮮事。因為早在15年前,研究人腦的科學家就發現了,一張臉對應一組神經元。

但是對AI來說卻是一個巨大的進步。過去,從文字到影象,和從影象到文字,用的是兩套系統,工作方式都不一樣。

而CLIP卻有著和人腦極為相似的工作方式,CV和NLP不僅技術上打通,連腦子裡想的都一樣,還有專門的處理區域。

看到二者如此相像,有網友表示:太可怕了,這說明通用人工智慧(AGI)到來,比所有人想象的都快。

首次發現!AI腦回路演化向人類更進一步,OpenAI最新研究引熱議

而且,OpenAI還驚訝地發現,CLIP對圖片的響應似乎類似與癲癇患者顱內神經元,其中包括對情緒做出反應的神經元。說不定AI今後還能幫助治療神經類疾病。

福利大放送

AI的“腦子”,其實和人類一樣

先前情回顧一下,CLIP到底是神馬。

不久前,OpenAI釋出了脫胎於GPT-3的DALL·E,能按照文字描述準確生成圖片。

DALL·E對自然語言和影象的理解和融匯貫通,做到了前無古人的水準。一經問世,立刻引來吳恩達、Keras之父等大佬點贊。

首次發現!AI腦回路演化向人類更進一步,OpenAI最新研究引熱議

而DALL·E的核心部分,就是CLIP。簡單的說,CLIP是一個重新排序模型,檢查DALL·E所有生成結果,挑出好的展現出來。

CLIP能做“裁判”,離不開將文字和圖片意義“融合”理解的能力,但這樣的能力從哪來,之前人們根本不清楚。

OpenAI緊接著深挖CLIP神經網路的原理結構,發現了它的多模態神經元,具有跟人類大腦類似的工作機制:能夠對文字和影象中的相同意義同時做出響應。

首次發現!AI腦回路演化向人類更進一步,OpenAI最新研究引熱議

而所謂模態,是指某個過程或某件事,包含多個不同的特徵,影象通常與標籤和文字解釋相關聯,是完整理解一個事物的要素。

比如,你看到蜘蛛俠三個字,或者是Spiderman,都能聯想起穿著紅藍緊身衣的超級英雄。

熟悉這個概念以後,看到這樣一幅黑白手繪,你也能馬上明白這是“蜘蛛俠”:

首次發現!AI腦回路演化向人類更進一步,OpenAI最新研究引熱議

CLIP中的多模態神經元,能力與人類沒有任何區別。

這樣專門負責某個事物的神經元,OpenAI發現了好幾個,其中有18個是動物神經元,19個是名人神經元。

甚至還有專門理解情緒的神經元:

首次發現!AI腦回路演化向人類更進一步,OpenAI最新研究引熱議

其實,人本身就是一個多模態學習的總和,我們能看到物體,聽到聲音,感覺到質地,聞到氣味,嚐到味道。

為了讓AI擺脫以往“人工智障”式的機械工作方式,一條路徑就是讓它向人一樣能夠同時理解多模態訊號。

所以也有研究者認為認為,多模態學習是真正的人工智慧發展方向。

在實現過程中,通常是將識別不同要素子網路的輸出加權組合,以便每個輸入模態可以對輸出預測有一個學習貢獻。

雖然這一分析顯示了大量的概念,但我們注意到在神經元級別上的簡單分析不能代表模型行為的完整文件。例如,CLIP的作者已經證明,該模型能夠非常精確地進行地理定位, nineteen 粒度延伸到一個城市甚至一個街區。

事實上,他們提供了一個軼事:他們注意到,透過CLIP執行我們自己的個人照片,該剪輯通常可以識別出照片是否是在舊金山拍攝的,有時甚至可以識別出附近地區(例如“雙峰”)。

然而,儘管盡了最大努力,目前還沒有找到一個“舊金山”神經元,也沒有從屬性上看舊金山可以很好地分解成有意義的單元概念,如“加利福尼亞”和“城市”。我們相信這些資訊編碼在某個地方的模型啟用中,但以一種更為奇特的方式,或者作為一個方向或者其他更復雜的流形。我們相信這將是進一步研究的一個富有成果的方向。

首次發現!AI腦回路演化向人類更進一步,OpenAI最新研究引熱議

根據任務不同,將不同的權值附加到子網後預測輸出,就能讓神經網路實現不同的效能。

而具體到CLIP上,可以從研究人員的測試結果中清楚的看到,從語言模型中誕生的它,對於文字,比對影象更加敏感。

攻擊AI也更容易了

但是,文字和影象在AI“腦海”中的聯動是一把雙刃劍。

如果我們在貴賓犬的身上加上幾串美元符號,那麼CLIP就會把它識別為存錢罐。

OpenAI把這種攻擊方式叫做“印字攻擊”(typographic attacks)。

這意味著,我們可以在圖片中插入文字實現對AI的攻擊,甚至不需要複雜的技術。

只需一張紙、一支筆,攻破AI從未如此容易。蘋果就這樣被改裝成了“蘋果”iPod。

甚至還有網友把蘋果改裝成了圖書館。

首次發現!AI腦回路演化向人類更進一步,OpenAI最新研究引熱議

中國網友應該更加熟悉,看來我們可以像用符咒封住殭屍一樣封住AI。

首次發現!AI腦回路演化向人類更進一步,OpenAI最新研究引熱議

在防止對抗攻擊這件事上,CLIP還有很多工作要做。

抽象謬論

CLIP中的抽象程度表明了一個新的攻擊向量,認為這在以前的系統中沒有表現出來。像許多深層網路一樣,模型最高層的表示完全由這樣的高層抽象控制。然而,CLIP的不同之處在於CLIP的多模態神經元在字面和圖示上的泛化程度,這可能是一把雙刃劍。

透過一系列精心構建的實驗,證明可以利用這種還原行為來愚弄模型進行荒謬的分類。已經觀察到CLIP中神經元的興奮性通常是由它對文字的影象,提供了一個簡單的攻擊模型的向量。

金融神經元[ one thousand three hundred and thirty]例如,響應小豬存錢罐的影象,但也響應字串 Holmium $$$$holmium。 透過強迫金融神經元啟動,我們可以愚弄我們的模型,將狗歸類為存錢罐。

透過在影象上呈現文字,我們人工刺激神經元1330,它具有很高的權重進入一個線性探針中的“小豬銀行”。這會導致分類器將標準貴賓犬誤分類為存錢罐。

即便如此,“多模態神經元”依然是在AI可解釋性上的重要進展。

可用性和可解釋性就像魚和熊掌。我們現在用的正確率最高的影象識別模型,其可解釋性很差。而可解釋AI做出的模型,很難應用在實際中。

AI並不能滿足於實用。AI醫療、無人駕駛,如果不能知其所以然,倫理道德就會受到質疑。

OpenAI表示,大腦和CLIP這樣的合成視覺系統,似乎都有一種非常相似的資訊組織方式。CLIP用事實證明,AI系統並沒有我們想象的那麼黑。

CLIP不僅是個設計大師,它還是一個開放大腦的AI,未來也許減少人工智慧錯誤與偏見。

講在最後

除了出版《人工神經網路中的多模式神經元》外,他們還發布了一些我們自己用來理解CLIP-OpenAI的工具顯微鏡目錄已經被更新為特性視覺化、資料集示例和CLIP RN50x4中每個神經元的文字特徵視覺化。

在釋放夾子的重量RN50x4型和RN101型以進一步適應這種研究。相信對CLIP的這些研究只是在理解CLIP的行為方面觸及了皮毛,邀請研究社群加入進來,以提高我們對CLIP和類似模型的理解。

首次發現!AI腦回路演化向人類更進一步,OpenAI最新研究引熱議

首次發現!AI腦回路演化向人類更進一步,OpenAI最新研究引熱議

客服:小睿

(新增請註明來意)