杭州2020年6月12日 /美通社/ -- 近日,大華股份基于深度學習的視覺目標跟蹤算法,在通用目標跟蹤評測集GOT-10k(Generic Object Tracking Benchmark)上獲得綜合精度排行榜第一,超越了其它一流AI公司和頂尖的學術(shù)研究機構(gòu);同時在OTB2015/VOT2018/VOT2019數(shù)據(jù)集上刷新了當前跟蹤算法SOTA(state-of-the-art)標準,這標志著大華在視覺目標跟蹤領(lǐng)域處于領(lǐng)先水平。
關(guān)于GOT-10k
GOT-10k數(shù)據(jù)集由中國科學院自動化研究所CASIA的智能系統(tǒng)與工程研究中心發(fā)布并維護,是具有國際權(quán)威的通用目標跟蹤算法評測數(shù)據(jù)集。其中,訓練集由10000個視頻序列組成,包含563個目標類別與87種運動模式;測試集由180個視頻序列組成,包含84個目標類別與32種運動模式。訓練集與測試集的目標類別不重合,且算法評估時要求使用統(tǒng)一的訓練數(shù)據(jù),極具挑戰(zhàn)性,吸引了海內(nèi)外廣大學者和知名學術(shù)機構(gòu)參與。
關(guān)于視覺目標跟蹤算法
該算法是為模擬人眼在目標運動估計及跟蹤方面的能力,給定任意目標的初始位置,跟蹤算法負責輸出后續(xù)幀中該目標的位置與分布狀態(tài),同時要適應相機視角變化、環(huán)境變化、遮擋物、周邊干擾物等因素的影響,可廣泛應用于智能視頻監(jiān)測、輔助駕駛系統(tǒng)、人機交互、機器人視覺導航等領(lǐng)域。
在本次國際測評中,為實現(xiàn)復雜環(huán)境下對運動目標的準確跟蹤,大華股份RSIA團隊創(chuàng)新使用特征點集取代矩形框進行目標狀態(tài)估計,進而實現(xiàn)精細化的目標區(qū)域表述與幾何變換建模能力;在算法框架上使用并行分支結(jié)構(gòu),結(jié)合多層聚合策略,有效獲取目標結(jié)構(gòu)信息與對抗干擾物的強魯棒性。
在大華實際產(chǎn)品中的應用