我组钟燕飞、张良培团队在人工智能领域顶级期刊TPAMI发表遥感地理目标分割成果  

 

近日,我室RSIDEA研究团队在国际人工智能领域顶级期刊《IEEE Transactions on Pattern Analysis and Machine Intelligence》(IEEE TPAMI)发表题为“FarSeg++: Foreground-Aware Relation Network for Geospatial Object Segmentation in High Spatial Resolution Remote Sensing Imagery”的学术论文,介绍其在高分辨率遥感影像地理目标分割领域的研究成果。论文的第一作者为郑卓博士,通讯作者为钟燕飞教授与张良培教授。

地理目标分割是遥感视觉理解的一项基本任务,是实现高分辨率遥感对地观测数据到时空间信息转化的重要基础。该任务与计算机视觉领域中的语义分割有着密切的联系,均旨在为图像的每一个像素赋予唯一的语义标签。但通用语义分割主要面向自然影像,其核心难点在于多尺度问题,通用语义分割方法重点聚焦实现多尺度上下文的建模,而忽略了遥感影像中背景方差大与前、背景比例极度不均的问题。本研究提出深度前景感知的地理目标分割方法,通过采用一种新颖的前景感知关系网络与损失函数,从目标-场景关系、优化、目标存在性三个角度进行显式前景建模,大幅度缓解遥感影像目标分割中虚警、漏检问题。

图1 FarSeg++技术路线

所提出方法在iSAID基准数据集与本研究新构建的UV6K基准数据集上进行实验,所提出方法在目标存在性预测与多类分割性能上均优于之前的方法。本研究通过性能上界分析发现,制约遥感地理目标分割的主要瓶颈误差在于目标存在性预测,若移除该误差,此前的FarSeg分割方法可达到96.2% mIoU,远高于实际性能64.9%mIoU,该结果表明目标存在性预测问题是遥感地理目标分割的瓶颈问题。FarSeg++方法在此基础上利用一个训练后可摒弃的目标存在性解码器,在训练阶段显式监督骨干网络的目标存在性表示,从而大幅改善方法的总体性能。

图2 实验结果: 基线结果(左), 提出方法结果(右)

论文预览版链接:https://ieeexplore.ieee.org/document/10188509

 
 
end_bar