達摩院提出目標重識別新正規化,已向全球開發者開源

德國哲學家萊布尼茨曾表示世上沒有兩片完全相同的樹葉,這樣的差異性也意味著世界上每一個物體都有自己獨有的ID。如今,AI已經逐漸掌握辨別物體細微差異的技能,從海量影象中找到目標物體。

8月6日,據記者瞭解,達摩院首次將Pure Transformer模型(下文簡稱為Transformer模型/結構)引入目標重識別任務中,該方法可以高效完成細粒度的影象檢索任務,並超越其它AI演算法,在準確率和檢索時間上均取得了迄今為止最好的成績。該研究已被AI頂會ICCV 2021收錄,並斬獲CVPR 2021 AICity挑戰賽目標重識別賽道冠軍,目前,該技術已正式向全球開發者開源。

達摩院提出目標重識別新正規化,已向全球開發者開源

達摩院演算法斬獲CVPR 2021 AICity挑戰賽目標重識別賽道冠軍

目標重識別是計算機領域研究的新趨勢,據統計,目前每1000篇計算機視覺論文就有30篇和目標重識別研究相關。不同於目標檢測、目標分割等任務,目標重識別的難度更高。例如同一個物體會因為視角、光線、遮擋等因素而產生外觀差異,不同的物體在同樣的角度和光線下在視覺上的相似度極高,即便透過肉眼也很難克服這些干擾資訊,如何區分這其中的差異並精準找到目標物體一直都是業界的難題。

過去幾年,AI研究人員逐步嘗試用深度學習CNN模型來解決該問題,但CNN模型在處理目標重識別任務時容易丟失影象部分細節資訊,同時又無法有效挖掘影象各特徵的全域性關聯性,從而導致其在複雜場景下的表現較差。此次,達摩院創新性將Pure Transformer模型應用於目標重識別任務中,並提出首個基於Pure Transformer結構的ReID框架TransReID,該框架藉助水平切塊思想提取更加豐富的細節特徵,同時可透過不同模態資訊的融合來解決視角差異問題。經過測試顯示,該方法已在6個數據集上的成績超越了SOTA最好的演算法成績。

達摩院提出目標重識別新正規化,已向全球開發者開源

圖:達摩院TransReID首先將圖片物理切割成若干個圖片小塊,每個圖片小塊經過特徵提取模組提取各自的視覺特徵,之後計算得到最終影象的全域性特徵。此外該框架還能夠幫助模型克服相機帶來的外觀偏差以及提取更加魯棒的全域性特徵。

該專案研究負責人、達摩院演算法專家羅浩表示:“過去Pure Transformer在NLP以及基礎視覺領域取得了較大成功,但在更加細粒度的影象檢索任務上還未有過嘗試,達摩院此次研究引領了新的研究趨勢,這是行業的又一個里程碑。”

據悉,該技術的應用前景廣闊,達摩院研究團隊表示未來會將該技術應用於安全防護以及自然資源、動物保護等領域,例如透過演算法來找回走失的珍稀動物。

— 完 —