PaperWeekly原作者|黃樸
學校|華中科技大學碩士
研究方向|多目標跟蹤
近年來,隨著tracker ++等集成檢測和多目標跟蹤算法框架的出現(xiàn),出現(xiàn)了很多相關的多目標跟蹤算法變體,基本上排在了MOT Challenge榜單的前列,包括新開放的top CenterTrack。在這里,我將分析集成檢測和跟蹤的框架。MOT和數(shù)據(jù)關聯(lián)的基礎知識可以在我的專欄里查看。后面我還會專門介紹基于深度學習的數(shù)據(jù)關聯(lián),ReID2MOT和SOT2MOT。
D&。T
其中s是衡量不同任務下個人損失的不確定因素。詳細原理請參考CVPR 2018《利用不確定性對場景幾何和語義損失進行加權的多任務學習》關于方差不確定性對多任務權重影響的分析。
效果和速度都很吸引人~
受精卵輸卵管移植
論文題目:在線多目標跟蹤的運動和外觀改進
作者:姚黃,壽韓棟,趙駿,東海劉勝,王宏偉,恩宇,和郭志忠
備注:MOT 15 ~ 17: 60.1,60.4,48.1 MOTA(公眾)
論文鏈接:https://arxiv.org/abs/2003.07177
代碼鏈接:https://github.com/nightmaredimple/libmot
這也是我們團隊基于tracker ++框架做的一個框架,主要是對運動模型、表觀模型、數(shù)據(jù)關聯(lián)的改進。由于一些原因,這里就不細說了。代碼會慢慢開源,但暫時不會完全開源。
對于運動模型部分,我們將卡爾曼和橢圓曲線模型集成在一起,而不是單獨執(zhí)行。實驗表明,集成版本比單獨版本高1.4 MOTA。
對于視在模型,我們考慮了特征對齊的因素,做了一點改進,設計了一個結合可見性預測的多任務視在模型:
在比較觀測幀和跟蹤軌跡的特征時,考慮跟蹤軌跡的歷史信息進行自適應加權:
通過以上分析可知,數(shù)據(jù)關聯(lián)部分的特征相似度計算不僅需要n:m(對于馬氏距離)的卡爾曼更新過程,還需要m:(nxk)的表觀特征比較,耗時。因此,我們使用三維積分圖像快速分配空之間的區(qū)域,將特征相似度計算的復雜度降低到O(m+n)。
該方法非常巧妙,即使用一熱編碼將每個觀察幀映射到特征圖,比基于iou的方法快得多:
后來我做了一些實驗,結果比論文里的要好。MOT15~17: 48.1,60.4,60.1 MOTA(公眾)。
中央跟蹤
將對象跟蹤為點
作者:邢一周(centernet的作者)、弗拉德倫·科爾敦和菲利普·克亨布爾
注:同時實現(xiàn)2D/3D多目標跟蹤,包括人和車,MOT 17: 61.4(公共),67.3(私人)MOTA,22FPS?。?!
基迪:89.4公噸
論文鏈接:http://arxiv.org/abs/2004.01177
代碼鏈接:https://github.com/xingyizhou/CenterTrack
中心跟蹤(CenterTrack)是CenteNet作者基于Tracker ++的多目標跟蹤框架,它是通過用中心網(wǎng)代替更快的RCNN來實現(xiàn)的,因此跟蹤框架成為跟蹤中心。
通過上圖,可以大致分析算法框架。除了使用中心網(wǎng)檢測兩個相鄰的幀之外,我們還使用D & amp;T幀策略,預測同時存在于兩個幀中的目標的相對位移,從而進行跟蹤和預測。
對于提供的觀察幀,作者將這些觀察幀的中心點映射到單通道熱圖,然后通過高斯模糊考慮這些點的附近。
因此,CenterTrack和CenterNet的區(qū)別在于,輸入維度增加(兩張3d圖像和一張觀察位置熱圖),輸出成為兩張圖像的目標中心位置、大小和相對偏移量。
對于測試環(huán)節(jié)的數(shù)據(jù)關聯(lián)部分,作者直接通過中心點的距離來判斷是否匹配是一種貪婪的方式,而不是匈牙利算法的全局數(shù)據(jù)關聯(lián)優(yōu)化。在訓練過程中,作者不僅使用相鄰幀進行訓練,還允許使用三幀。
“中央追蹤”在2D/3D多行人/車輛追蹤任務中,在MOT、KITTI和nuScenes數(shù)據(jù)集上取得了SOTA成果。
引用
[1] Feichtenhofer C,Pinz A,Zisserman A. Detect to track,track to detect[C]。摘自:美國電氣和電子工程師協(xié)會國際計算機視覺會議錄。2017.3038-3046.
[2]陳力,艾赫,莊z,等.深度學習的實時多人跟蹤候選人選擇和人物再識別[C]。in: 2018 IEEE國際多媒體會議暨博覽會(ICME)。IEEE,2018。1-6.
[3]博格曼·P,梅哈特·T,利爾-泰西·l .不帶鈴鐺和哨子的追蹤[C]。摘自:美國電氣和電子工程師協(xié)會國際計算機視覺會議錄。2019.941-951.
[4]通過流動和融合進行多目標跟蹤
[5]走向實時多目標跟蹤
[6]在線多目標跟蹤的運動和外觀改進
[7]跟蹤對象作為點
#提交渠道#
讓你的論文被更多人看到
怎樣才能讓更多高質(zhì)量的內(nèi)容以更短的方式到達讀者手中,縮短讀者尋找高質(zhì)量內(nèi)容的成本?答案是:你不認識的人。
總有你不認識的人知道你想知道的。PaperWeekly可能會成為一座橋梁,促使來自不同背景和方向的學者和學術靈感相互碰撞,從而在生成中創(chuàng)造更多的可能性。
PaperWeekly鼓勵大學實驗室或個人在我們的平臺上分享各種高質(zhì)量的內(nèi)容,可以是最新的論文解讀、學習經(jīng)驗或技術干貨。我們只有一個目的,這樣知識才能真正流動。
貢獻標準:
稿件確實是個人原創(chuàng)作品,稿件中要注明作者個人信息(姓名+學校/工作單位+學歷/職位+研究方向)
如果文章不是第一篇,請在提交文章時提醒并附上所有已發(fā)布的鏈接
《紙周刊》默認每篇都是第一篇,會加“原創(chuàng)”logo
提交電子郵件:
提交郵件:hr@paperweekly.site
所有文章均附有圖片,請在附件中單獨發(fā)送
請留下您的即時聯(lián)系方式(微信或手機),以便我們在編輯和發(fā)布時與作者溝通
1.《17tracking 聯(lián)合檢測和跟蹤的MOT算法解析(含MOT17 No.1等多個榜前算法)》援引自互聯(lián)網(wǎng),旨在傳遞更多網(wǎng)絡信息知識,僅代表作者本人觀點,與本網(wǎng)站無關,侵刪請聯(lián)系頁腳下方聯(lián)系方式。
2.《17tracking 聯(lián)合檢測和跟蹤的MOT算法解析(含MOT17 No.1等多個榜前算法)》僅供讀者參考,本網(wǎng)站未對該內(nèi)容進行證實,對其原創(chuàng)性、真實性、完整性、及時性不作任何保證。
3.文章轉載時請保留本站內(nèi)容來源地址,http://f99ss.com/jiaoyu/753777.html