谷歌提出Context R-CNN, 利用時(shí)域上下文信息的增強(qiáng)目標(biāo)檢測系統(tǒng)
這種方法超過了僅僅使用單幀圖像的FasterR-CNN方法,在多個(gè)生態(tài)環(huán)境圖像檢測領(lǐng)域內(nèi)都具有明顯的優(yōu)勢。研究人員已將模型整合到TF Object Detection API中,為相關(guān)研究人員提供更為簡化的訓(xùn)練和部署。
上圖中顯示了上下文信息(長達(dá)一個(gè)月)是如何幫助專家確定模糊場景中的動(dòng)物的。上下文中目標(biāo)形狀、尺寸、每天固定的食草時(shí)間幫助算法確定這是角馬。
上下文R-CNN模型
上下文R-CNN主要利用靜態(tài)相機(jī)拍攝圖像序列間的高度相關(guān)性,在無需額外人工標(biāo)注數(shù)據(jù)的情況下提升算法在復(fù)雜情況下的性能,同時(shí)改善在新的相機(jī)設(shè)置下的泛化性。與Faster R-CNN類似,它也采用了兩階段目標(biāo)檢測架構(gòu)。
上圖顯示了上下文R-CNN的頂層架構(gòu),顯示了檢測模型與長期上下文信息如何有效系統(tǒng)提升性能。
為了抽取某一相機(jī)的上下文信息,研究人員首先利用參數(shù)固定的特征抽取器從較大的時(shí)間跨度中構(gòu)建出上下文存儲(chǔ)空間(下圖中M);隨后每幅圖像在對(duì)應(yīng)上下文信息聚合的幫助下,上下文R-CNN將會(huì)更好地在復(fù)雜情況下對(duì)目標(biāo)進(jìn)行檢測(包括低光、濃霧、模糊等場景)。這種聚合利用attention方式實(shí)現(xiàn),它對(duì)靜態(tài)相機(jī)中出現(xiàn)的稀疏和非規(guī)則采樣具有較好的魯棒性。
第一階段的Faster R-CNN將提出潛在目標(biāo),而第二階段將對(duì)每個(gè)候選目標(biāo)進(jìn)行分類。在Context R-CNN中針對(duì)第一階段的候選目標(biāo),使用基于相似性的注意力機(jī)制來確定當(dāng)前目標(biāo)與記憶池中特征的相關(guān)性。隨后利用相關(guān)性權(quán)重加權(quán)記憶池中的特征來構(gòu)建針對(duì)這一目標(biāo)的上下文特征,并將其添加到原始的目標(biāo)特征后,送入第二階段的Faster R-CNN中進(jìn)行最終的分類。
Context R-CNN將近一個(gè)月的上下文信息用于幫助分類當(dāng)前目標(biāo)。綠色數(shù)字顯示了每個(gè)記憶特征與當(dāng)前目標(biāo)的注意力相關(guān)性權(quán)重。

發(fā)表評(píng)論
請(qǐng)輸入評(píng)論內(nèi)容...
請(qǐng)輸入評(píng)論/評(píng)論長度6~500個(gè)字
最新活動(dòng)更多
-
7月22-29日立即報(bào)名>> 【線下論壇】第三屆安富利汽車生態(tài)圈峰會(huì)
-
7.30-8.1火熱報(bào)名中>> 全數(shù)會(huì)2025(第六屆)機(jī)器人及智能工廠展
-
7月31日免費(fèi)預(yù)約>> OFweek 2025具身智能機(jī)器人產(chǎn)業(yè)技術(shù)創(chuàng)新應(yīng)用論壇
-
免費(fèi)參會(huì)立即報(bào)名>> 7月30日- 8月1日 2025全數(shù)會(huì)工業(yè)芯片與傳感儀表展
-
即日-2025.8.1立即下載>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍(lán)皮書》
-
8月5日立即報(bào)名>> 【在線會(huì)議】CAE優(yōu)化設(shè)計(jì):醫(yī)療器械設(shè)計(jì)的應(yīng)用案例與方案解析
推薦專題