摘要:本文探討了深度學(xué)習(xí)在航空影像密集匹配中的性能,并與經(jīng)典方法進(jìn)行了比較,對模型泛化能力進(jìn)行了評估。首先,實(shí)現(xiàn)了MC-CNN(matching cost convolutional neural network)、GC-Net(geometry and context network)、DispNet(disparity estimation network)3種代表性卷積神經(jīng)元網(wǎng)絡(luò)在航空立體像對上的訓(xùn)練和測試,并與傳統(tǒng)方法SGM(semi-global matching)和商業(yè)軟件SURE進(jìn)行了比較。其次,利用直接遷移學(xué)習(xí)方法,評估了各模型在不同數(shù)據(jù)集間的泛化能力。最后,利用預(yù)訓(xùn)練模型和少量目標(biāo)數(shù)據(jù)集樣本,評估了模型微調(diào)的效果。試驗(yàn)包含3套航空影像、2套開源街景影像。試驗(yàn)表明:①與傳統(tǒng)的遙感影像密集匹配方法相比,目前深度學(xué)習(xí)方法略有優(yōu)勢;②GC-Net與MC-CNN表現(xiàn)了良好的泛化能力,在開源數(shù)據(jù)集上訓(xùn)練的模型可以直接應(yīng)用于遙感影像,且3PE(3-pixel-error)精度沒有明顯下降;③在訓(xùn)練樣本不足時(shí),利用預(yù)訓(xùn)練模型做初值并進(jìn)行參數(shù)微調(diào)可以得到比直接訓(xùn)練更好的結(jié)果。
注:因版權(quán)方要求,不能公開全文,如需全文,請咨詢雜志社