摘要:基于卷積神經網(wǎng)絡(CNN)的目標位姿估計模型的損失函數(shù)大多采用兩點之間的歐氏距離作為評判準則,雖然該損失函數(shù)計算簡單、運算速度快,但訓練規(guī)則不夠全面、缺乏對目標的全局認識。針對這一問題,提出了一種基于組合型損失函數(shù)的ComPoseNet模型,并進行位姿估計。此模型中的損失函數(shù)從空間學習的角度出發(fā),同時利用兩點歐氏距離、兩點直線和兩點直線角度等作為訓練規(guī)則。相比傳統(tǒng)損失函數(shù),此算法分別從點、線以及角度方面考慮了目標的空間整體位置,進一步減小了估計位姿與真實位姿之間的誤差,位姿估計得以改善。在LineMod數(shù)據(jù)上進行大量的實驗和分析,結果表明,在相同的訓練次數(shù)情況下,本文算法比傳統(tǒng)算法收斂速度快、精度高、誤差小,其中平移誤差降低了7.407%,角度誤差降低了6.968%。
注:因版權方要求,不能公開全文,如需全文,請咨詢雜志社