高光谱图像域适应论文(一)Unsupervised Domain Adaptation With Dense-Based Compaction for Hyperspectral Imagery

前言

本文主要是在ADDA的基础上采用了以Densenet为框架的特征提取器网络,需要注意的地方就是本文末Eq7,如何进行域混淆。

什么是DenseNet?

DenseNet中每个层都会接受其前面所有层作为其额外的输入(见图2DenseBlock),类似于ResNet。DenseNet的另一大特色是通过特征在channel维度上的连接来实现特征重用(feature reuse)。这些特点让DenseNet在参数和计算成本更少的情形下实现比ResNet更优的性能,计算成本小是因为k比较小
在这里插入图片描述
DenseNet网络中使用DenseBlock+Transition的结构,其中DenseBlock是包含很多层的模块,DenseBlock中的每个层特征图大小相同,通道数相同,k为特征图的通道数,k 在DenseNet称为growth rate,这是一个超参数,每一层的k都是相同的
Transition模块是连接两个相邻的DenseBlock,并且通过Pooling使特征图大小降低,进行压缩模型
在这里插入图片描述
在DenseNet中,会连接前面所有层作为输入:
在这里插入图片描述H(⋅)代表是非线性转化函数,它是一个组合操作,其可能包括一系列的BN(Batch Normalization),ReLU,Pooling及Conv操作。注意这里L层与 L − 1层之间可能实际上包含多个卷积层。
如图,DenseBlock中的非线性组合函数H(·)采用的是BN+ReLU+3x3 Conv的结构。随着层数增加,尽管k设定得较小,DenseBlock的输入会非常多,不过这是由于特征重用所造成的,每个层仅有 k个特征是自己独有的
在这里插入图片描述
由于后面层的输入会非常大,DenseBlock内部可以采用bottleneck层来减少计算量,主要是原有的结构中增加1x1 Conv,如图所示,即BN+ReLU+1x1 Conv+BN+ReLU+3x3 Conv,称为DenseNet-B结构。其中1x1 Conv将 Lk个特征图输入减少到4k个,得到 4k 个特征图它起到的作用是降低特征数量,从而提升计算效率
在这里插入图片描述
Transition层包括一个1x1的卷积(降低通道数)和2x2的AvgPooling(将特征图变小),结构为BN+ReLU+1x1 Conv+2x2 AvgPooling。

Introduction

本文提出了一种用于HSI分类(HSIC)的基于密集压缩(UDAD)的无监督域适应体系结构。将频谱空间特征压缩、无监督域适应和分类器训练过程整合到一个集成框架中,完成HSI跨场景分类。该框架的核心是利用对抗性领域学习来减少领域差异。
UDAD框架主要由标记域训练、无监督域适应和无监督目标分类三个阶段组成。在学习阶段,采用DenseNet网络框架构建源域的特征表示Ms。建立了基于半对称机制的对抗域适应算法,完成了源域与目标域的特征对齐。
Ms训练网络的主干为Densenet。该模式的优点是在标记学习阶段进行判别特征表示,有利于无监督领域适应过程中的知识转移。
在这里插入图片描述
图1.基于UDAD网络的高光谱跨场景分类综述。所提出的方案分三个步骤进行。首先,在训练阶段利用HSI源域的判别谱空间特征。接下来,基于不同场景的映射,通过**对抗性学习(训练域鉴别器D同时训练生成网络MT使得域混淆)**完成域分布对齐。最后,利用训练好的分类器完成目标场景的无监督HSIC。

在UDAD模型中,MS用于源HSI的光谱空间特征提取。MS的详细结构如图2所示,它是一个运行在密集网络上的多层网络。具体地说,我们使用两个密集块组装来判别光谱空间特征。具体来说,每个denseblock大小不同的核函数(即上文中的H非线性转化函数)由两个卷积层和一个激活层组成。 ??
在这里插入图片描述
图2所示。所提出的UDAD网络的densenet CNN结构。节点◦表示一个密集的模块。在紧凑模型中使用了三个嵌入层,包括卷积层(0层)用于初始空间特征提取,过渡层(m层)用于特征压缩,自适应池化层(n层)用于特征非线性化。

A.Labeled Domain Training

源域样本X标记Y的分布定义为PS,未标记的目标域的分布记录为PT。其核心任务是获得HSI源域的丰富表示,并改进用于迁移学习的判别知识。
基本卷积层映射fn进行卷积的公式为:
在这里插入图片描述
f ni表示第n层的压缩输入,Θ是二维卷积算子。随后,ReLu函数激活特征映射。
密集块主要用于以前馈方式连接所有前一层的输出,旨在减少梯度消失的可能性。在这种风格下,紧凑的网络可以受益于更深入的网络训练。densenet运算定义如下:
在这里插入图片描述
我们设计了一个全连接层和一个激活层的分类器CS。依据源域样本,CS的训练由分类交叉熵损失完成。
在这里插入图片描述
K表示类的个数,Ms表示提取的特征,I为单位矩阵。
密集块每一层以前馈方式连接所有前一层的输出,旨在减少梯度消失的可能性。在这种风格下,紧凑的网络可以受益于更深的网络训练。密度运算定义如下:
在这里插入图片描述

B.Unsupervised Domain Adaptation

本文在最新设计的ADDA框架的基础上,提出了一种针对HSI的对抗性域自适应框架,以概括源域MS和目标域MT的特征分布。图3显示了所提模型的对抗识别细节。
在这里插入图片描述
图3.两个小节交替进行以实现域适应。

在域鉴别器D训练阶段,MS和MT都是固定的。首先用MS的权值初始化MT的权值,即θMT = θMS,可以提高收敛能力。
鉴别器D根据标准监督损失进行优化,公式如下:
在这里插入图片描述
MT优化的目的是统一两个域的分布,根据MT的约束对抗目标进行固定,定义如下:
在这里插入图片描述

C.Implementation Details of the UDAD Model

为了降低增加深度造成的计算成本,在本文中,我们将整个密集网络分成两个denseblock,以减少输出通道的数量
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
表1为ADDA网络架构,表2为DenseNet架构。

ADDA

补充:ADDA这个地方我大概是搞明白啦
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
D为域鉴别器,源域为1,目标域为0,最小化Eq7就是使得D的结果接近于1,也就是说使得域鉴别器判断错误

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
THE END
分享
二维码

)">
< <上一篇

)">
下一篇>>