更高效的機器學習將顛覆AI現有的模式

更高效的機器學習將顛覆AI現有的模式

今年1月,谷歌推出了一項名為Cloud AutoML的新服務,可以自動設計機器學習系統中某些較為棘手的部分。在發開這一專案時,谷歌的研究人員有時需要同時執行多達800個圖形處理晶片來訓練其強大的演算法。

人類僅僅需要觀察一兩個範例就可以認出什麼是咖啡杯,而基於模擬神經元的人工智慧神經網路則需要看成千上萬的範例才能識別出一個物體。想象一下,你在識別環境中的每一樣物體時都需要經歷這樣的過程,你就會理解為什麼人工智慧軟體需要這麼多的算力。

更高效的機器學習將顛覆AI現有的模式

高通公司工程副總裁查爾斯•伯根(Charles Bergan)上週早些時候在《麻省理工科技評論》的EmTech China 新興科技峰會上對與會者說,如果研究人員能夠設計出可以用少數樣本完成某些任務(訓練)的神經網路,將會“顛覆整個產業模式”。

伯根認為,如果神經網路有了“一次性學習”的能力,那麼輸入大量資料以訓練演算法的繁瑣過程將會被淘汰。這可能會對硬體行業產生重大影響,因為科技巨頭和初創公司目前都在專注於開發更強大的處理器,以執行現有的資料密集型人工智慧演算法。

更高效的機器學習將顛覆AI現有的模式

這同時也意味著會出現更高效的機器學習。英偉達的首席科學家比爾·戴利(Bill Dally)在會議上說,雖然使用小資料集來訓練神經網路還不現實,但是已經出現了相關研究,試圖在不損失網路準確性的前提下使演算法規模變得更小。

英偉達的研究人員使用一種叫做網路剪枝的方法,透過去除不直接影響輸出的神經元,使神經網路變得更小、更有效。戴利說:“透過改善訓練方式可以大大減少網路訓練的複雜性。”