亚洲成色777777女色窝,777亚洲妇女,色吧亚洲日本,亚洲少妇视频

基于編解碼雙路卷積神經(jīng)網(wǎng)絡(luò)的視覺自定位方法

摘要:為了從單張RGB圖像估計出相機的位姿信息,提出了一種深度編解碼雙路卷積神經(jīng)網(wǎng)絡(luò)(CNN),提升了視覺自定位的精度。首先,使用編碼器從輸入圖像中提取高維特征;然后,使用解碼器提升特征的空間分辨率;最后,通過多尺度位姿預測器輸出位姿參數(shù)。由于位置和姿態(tài)的特性不同,網(wǎng)絡(luò)從解碼器開始采用雙路結(jié)構(gòu),對位置和姿態(tài)分別進行處理,并且在編解碼之間增加跳躍連接以保持空間信息。實驗結(jié)果表明:所提網(wǎng)絡(luò)的精度與目前同類型算法相比有明顯提升,其中相機姿態(tài)角度精度有較大提升。

關(guān)鍵詞:
  • 視覺自定位  
  • 編解碼結(jié)構(gòu)  
  • 跳躍連接  
  • 雙路網(wǎng)絡(luò)  
作者:
賈瑞明; 劉圣杰; 李錦濤; 王赟豪; 潘海俠
單位:
北方工業(yè)大學信息學院; 北京100144; 北京航空航天大學軟件學院; 北京100083
刊名:
北京航空航天大學學報

注:因版權(quán)方要求,不能公開全文,如需全文,請咨詢雜志社

北京航空航天大學學報緊跟學術(shù)前沿,緊貼讀者,國內(nèi)刊號為:11-2625/V。堅持指導性與實用性相結(jié)合的原則,創(chuàng)辦于1956年,雜志在全國同類期刊中發(fā)行數(shù)量名列前茅。