高光谱影像标记样本的获取通常是一项费时费力的工作,如何在小样本条件下提高影像的分类精度是高光谱影像分类领域面临的难题之一。现有的高光谱影像分类方法对影像的多尺度信息挖掘不够充分,导致在小样本条件下的分类精度较差。针对此...高光谱影像标记样本的获取通常是一项费时费力的工作,如何在小样本条件下提高影像的分类精度是高光谱影像分类领域面临的难题之一。现有的高光谱影像分类方法对影像的多尺度信息挖掘不够充分,导致在小样本条件下的分类精度较差。针对此问题,本文设计了一种面向高光谱影像小样本分类的全局特征与局部特征自适应融合方法。该方法基于动态图卷积网络和深度可分离卷积网络,分别从全局尺度和局部尺度挖掘影像的潜在信息,实现了标记样本的有效利用。进一步引入极化自注意力机制,在减少信息损失的同时提升网络的特征表达,并采用特征自适应融合机制对全局特征和局部特征进行自适应融合。为验证本文方法的有效性,在University of Pavia、Salinas、WHU-Hi-LongKou和WHU-Hi-HanChuan4组高光谱影像基准数据集上开展分类试验。试验结果表明,与传统分类器和先进的深度学习模型相比,本文方法兼顾执行效率和分类精度,在小样本条件下能够取得更为优异的分类表现。在4组数据集上的总体分类精度分别为99.01%、99.42%、99.18%和95.84%,平均分类精度分别为99.31%、99.65%、98.89%和95.49%,Kappa系数分别为98.69%、99.35%、98.93%和95.14%。本文方法对应的代码开源于https://github.com/IceStreams/GLFAF。展开更多
文摘高光谱影像标记样本的获取通常是一项费时费力的工作,如何在小样本条件下提高影像的分类精度是高光谱影像分类领域面临的难题之一。现有的高光谱影像分类方法对影像的多尺度信息挖掘不够充分,导致在小样本条件下的分类精度较差。针对此问题,本文设计了一种面向高光谱影像小样本分类的全局特征与局部特征自适应融合方法。该方法基于动态图卷积网络和深度可分离卷积网络,分别从全局尺度和局部尺度挖掘影像的潜在信息,实现了标记样本的有效利用。进一步引入极化自注意力机制,在减少信息损失的同时提升网络的特征表达,并采用特征自适应融合机制对全局特征和局部特征进行自适应融合。为验证本文方法的有效性,在University of Pavia、Salinas、WHU-Hi-LongKou和WHU-Hi-HanChuan4组高光谱影像基准数据集上开展分类试验。试验结果表明,与传统分类器和先进的深度学习模型相比,本文方法兼顾执行效率和分类精度,在小样本条件下能够取得更为优异的分类表现。在4组数据集上的总体分类精度分别为99.01%、99.42%、99.18%和95.84%,平均分类精度分别为99.31%、99.65%、98.89%和95.49%,Kappa系数分别为98.69%、99.35%、98.93%和95.14%。本文方法对应的代码开源于https://github.com/IceStreams/GLFAF。