基于深度卷積神經網絡的弱監督圖像語義分割
摘要:圖像語義分割是計算機視覺領域重要識別任務,其目標是估計圖像中的像素級目標類標簽。最近,深度卷積神經網絡(Deep Convolutional Neural Networks,DCNNs)已經成為解決圖像語義分割的主流方法。然而,學習DCNNs需要大量的已標注訓練數據(Ground Truth,GT),而現有數據集中的GT在數量和多樣性方面因標注成本巨大而受到諸多限制。弱監督方法則考慮利用圖像級標簽和物體框之類的弱標注信息解決圖像語義分割中的標注問題。相比于全監督的像素級圖像標注,圖像分類的GT(圖像級標簽)和目標檢測的GT(物體框)更容易獲得,因而可以直接借用為弱標注信息訓練分類模型。弱監督語義分割的主要挑戰在于標注信息的不完整性,即缺失了物體精確的邊界信息。文中對基于DCNNs的弱監督語義分割方法進行了全面的闡述,描述了如何克服這些限制并討論了提高其性能的可能研究方向。
注: 保護知識產權,如需閱讀全文請聯系南京郵電大學學報雜志社