基于深度卷積神經網絡的高分辨率遙感影像場景分類
摘要:場景分類對于高分辨率遙感影像的理解和信息提取具有重要意義。傳統方法利用低、中級或語義特征來對影像的場景進行判別,但是針對高分影像涵蓋的細節多、類別復雜等特點,中低層特征無法對影像語義進行準確描述。本文提出了一種基于深度卷積神經網絡DCNN場景分類模型。首先利用卷積層對影像的紋理、顏色等低階特征進行提取,然后利用池化層對重要特征進行篩選,最后將提取到的特征進行組合,形成高階語義特征,利用高階語義特征對高分影像進行場景分類。為了解決模型的過擬合問題,使用了數據增廣、正則化及Dropout提高模型的泛化能力。本文方法在UC Merced-21取得了91.33%的準確率,相比于傳統方法,有效地提高了分類精度,同時證明了深度卷積神經網絡在遙感影像分類領域優越性。
注: 保護知識產權,如需閱讀全文請聯系測繪通報雜志社