核心概念
本文提出了一种新的动态特征增强方法FusionMamba,用于多模态图像融合。该方法结合了高效的Mamba模型和动态特征融合模块,能够有效地提取和融合不同模态之间的特征,从而提高图像融合的性能。
摘要
本文提出了一种名为FusionMamba的新型动态特征增强方法,用于多模态图像融合。主要包括以下几个方面:
-
设计了一种改进的高效Mamba模型(DVSS),集成了动态卷积和通道注意力机制,不仅保持了Mamba的性能和全局建模能力,还减少了通道冗余,增强了局部特征提取能力。
-
提出了动态特征融合模块(DFFM),包括两个动态特征增强模块(DFEM)和一个跨模态融合Mamba模块(CMFM)。DFEM用于自适应地增强纹理细节和差异感知,CMFM则有效地挖掘了不同模态之间的相关性。
-
采用了Unet多层结构,构建了一个高效且通用的图像融合框架。
实验结果表明,FusionMamba在多种多模态图像融合任务上都取得了最佳性能,包括红外-可见光融合、医学图像融合和生物医学图像融合等。
統計資料
不同模态图像融合可以创造出包含更多信息和细节纹理的单一图像。
现有的基于卷积神经网络和Transformer的融合方法存在局限性,无法有效捕捉全局特征和局部细节。
Mamba模型具有线性复杂度,可以高效建模长程依赖关系,为图像融合提供了新的可能。
引述
"多模态图像融合旨在将不同模式的信息结合起来,创造出一张包含全面信息和详细纹理的单一图像。"
"Transformer模型在全局建模方面表现出色,但由于自注意力机制的二次复杂度,计算效率受到限制。"
"Mamba模型通过将离散状态空间方程形式化为递归形式,并采用特殊设计的结构重参数化,能够模拟非常长程的依赖关系,为高效的长程建模提供了可能。"