近期,信息学院陈志泊教授课题组在高分辨率遥感图像变化检测研究方面取得研究进展,研究成果以“A CNN-Transformer Network Combining CBAM for Change Detection in High-Resolution Remote Sensing Images”为题,在遥感领域TOP期刊《Remote Sensing》(二区TOP,IF="5.349)上发表。
遥感图像变化检测是指从同一区域不同时间获取的多幅遥感图像中提取变化区域的过程,这对于快速检测和准确了解地表变化具有重要的意义。随着遥感技术的发展,遥感图像的空间分辨率越来越高,图像中包含的地物细节信息也越来越多,具有相同语义概念的物体在不同时间、不同空间位置会表现出不同的光谱特征。因此,传统的变化检测手段,如基于像素的变化检测和基于对象的变化检测,都不再适用于高分辨率遥感图像变化检测。
目前基于深度学习的变化检测方法大多通过在传统卷积网络中引入注意力机制来生成检测结果。然而,由于感受野的限制,基于卷积的方法无法充分建模全局上下文和捕捉长程依赖关系,因此,在区分伪变化方面存在不足。Transformer具有高效的全局时空建模能力,有利于感兴趣变化的特征表示。然而,细节信息的缺乏可能导致Transformer无法准确定位变化区域的边界。
针对上述问题,陈志泊教授团队设计了结合卷积神经网络、Transformer和注意力机制的端到端网络模型CTCANet(图1)进行高分辨率遥感图像变化检测,发表了利用卷积神经网络和Transformer实现高分辨率遥感图像变化检测的论文。为了获得揭示感兴趣变化的高级特征表示,CTCANet利用Tokenizer将卷积网络提取的每个图像的特征嵌入到语义标记序列中,并利用Transformer模块在标记空间中建模全局时空上下文。随后,重构的包含深度抽象信息的特征被传送到级联解码器,与包含浅细粒度信息的特征融合。这样的融合使模型能够保持变化区域的完整性并准确地定位小目标。此外,卷积块注意模块的集成可以平滑异构特征之间的语义差距,并强调通道和空间域的相关变化,从而提高检测的准确性。在两个可公开访问的数据集LEVIR-CD和SYSU-CD上的实验结果证明,所提出的CTCANet性能超过了近期最先进的方法。
图1 CTCANet网络结构图
上述论文第一作者为信息学院2021级硕士研究生尹朦朦,通讯作者为陈志泊教授,北京林业大学为唯一完成单位。该研究受到国家林业草原局项目“林草科技推广APP信息服务”(2021133108)的资助。
论文链接:https://www.mdpi.com/2072-4292/15/9/2406