亚洲成色777777女色窝,777亚洲妇女,色吧亚洲日本,亚洲少妇视频

基于深度學(xué)習(xí)的航空遙感影像密集匹配

摘要:本文探討了深度學(xué)習(xí)在航空影像密集匹配中的性能,并與經(jīng)典方法進(jìn)行了比較,對模型泛化能力進(jìn)行了評估。首先,實(shí)現(xiàn)了MC-CNN(matching cost convolutional neural network)、GC-Net(geometry and context network)、DispNet(disparity estimation network)3種代表性卷積神經(jīng)元網(wǎng)絡(luò)在航空立體像對上的訓(xùn)練和測試,并與傳統(tǒng)方法SGM(semi-global matching)和商業(yè)軟件SURE進(jìn)行了比較。其次,利用直接遷移學(xué)習(xí)方法,評估了各模型在不同數(shù)據(jù)集間的泛化能力。最后,利用預(yù)訓(xùn)練模型和少量目標(biāo)數(shù)據(jù)集樣本,評估了模型微調(diào)的效果。試驗(yàn)包含3套航空影像、2套開源街景影像。試驗(yàn)表明:①與傳統(tǒng)的遙感影像密集匹配方法相比,目前深度學(xué)習(xí)方法略有優(yōu)勢;②GC-Net與MC-CNN表現(xiàn)了良好的泛化能力,在開源數(shù)據(jù)集上訓(xùn)練的模型可以直接應(yīng)用于遙感影像,且3PE(3-pixel-error)精度沒有明顯下降;③在訓(xùn)練樣本不足時(shí),利用預(yù)訓(xùn)練模型做初值并進(jìn)行參數(shù)微調(diào)可以得到比直接訓(xùn)練更好的結(jié)果。

關(guān)鍵詞:
  • 立體匹配  
  • 密集匹配  
  • 航空影像  
  • 卷積神經(jīng)元網(wǎng)絡(luò)  
  • 深度學(xué)習(xí)  
作者:
劉瑾; 季順平
單位:
武漢大學(xué)遙感信息工程學(xué)院; 湖北武漢430079
刊名:
測繪學(xué)報(bào)

注:因版權(quán)方要求,不能公開全文,如需全文,請咨詢雜志社

期刊名稱:測繪學(xué)報(bào)

測繪學(xué)報(bào)由中國測繪學(xué)會(huì)主辦,中國科學(xué)技術(shù)協(xié)會(huì)主管的學(xué)術(shù)刊物,國內(nèi)刊號(hào)為:11-2089/P。創(chuàng)辦于1957年,月刊,在全國同類期刊中發(fā)行數(shù)量名列前茅。其主要欄目有:大地測量學(xué)與導(dǎo)航、攝影測量學(xué)與遙感、地圖學(xué)與地理信息、海洋測繪、博士論文摘要等。