摘要:為了從單張RGB圖像估計出相機的位姿信息,提出了一種深度編解碼雙路卷積神經(jīng)網(wǎng)絡(luò)(CNN),提升了視覺自定位的精度。首先,使用編碼器從輸入圖像中提取高維特征;然后,使用解碼器提升特征的空間分辨率;最后,通過多尺度位姿預測器輸出位姿參數(shù)。由于位置和姿態(tài)的特性不同,網(wǎng)絡(luò)從解碼器開始采用雙路結(jié)構(gòu),對位置和姿態(tài)分別進行處理,并且在編解碼之間增加跳躍連接以保持空間信息。實驗結(jié)果表明:所提網(wǎng)絡(luò)的精度與目前同類型算法相比有明顯提升,其中相機姿態(tài)角度精度有較大提升。
注:因版權(quán)方要求,不能公開全文,如需全文,請咨詢雜志社