期刊文献+
共找到7篇文章
< 1 >
每页显示 20 50 100
基于改进LinkNet的寒旱区遥感图像河流识别方法 被引量:5
1
作者 沈瑜 王海龙 +3 位作者 苑玉彬 梁丽 张泓国 王霖 《农业机械学报》 EI CAS CSCD 北大核心 2022年第7期217-225,共9页
为解决遥感图像河流精细化提取问题,提出一种改进LinkNet模型的分割网络(AFRLinkNet)。AFRLinkNet在LinkNet基础上引入了残差通道注意力结构、非对称卷积模块以及密集跳跃连接结构,并用视觉激活函数FReLU替换ReLU激活函数。残差通道注... 为解决遥感图像河流精细化提取问题,提出一种改进LinkNet模型的分割网络(AFRLinkNet)。AFRLinkNet在LinkNet基础上引入了残差通道注意力结构、非对称卷积模块以及密集跳跃连接结构,并用视觉激活函数FReLU替换ReLU激活函数。残差通道注意力结构可以强化对分割任务有效的特征,以提高模型的分类能力,得到更多的细节信息。利用非对称卷积模块进行模型压缩和加速。使用FReLU激活函数提升网络提取遥感图像河流的精细空间布局。在寒旱区河流数据集上的实验结果表明,AFRLinkNet网络相较于FCN、UNet、ResNet50、LinkNet、DeepLabv3+网络交并比分别提高了26.4、22.7、17.6、12.0、9.7个百分点,像素准确率分别提高了25.9、22.5、13.2、10.5、7.3个百分点;引入非对称卷积模块后,交并比提高了5.1个百分点,像素准确率提高了2.9个百分点,在此基础上引入残差通道注意力结构之后,交并比又提高了2.2个百分点,像素准确率提高了2.3个百分点,证明了其对河流细节识别效果更好。 展开更多
关键词 遥感图像 河流识别 残差通道注意力结构 非对称卷积 LinkNet
下载PDF
电子信息专业创新创业实训体系改革研究 被引量:3
2
作者 沈瑜 王霖 +1 位作者 张泓国 王小鹏 《电气电子教学学报》 2022年第3期173-177,共5页
在“新工科”的大背景下,为了摸索如何提升高校电子信息类学生的工程创新能力和创业实践能力,针对电子信息工程专业,以培养高素质创新创业人才为目标,以“大工程观”为指导,以兰州交通大学“天佑”大学生创新团队为平台,以“项目学习”... 在“新工科”的大背景下,为了摸索如何提升高校电子信息类学生的工程创新能力和创业实践能力,针对电子信息工程专业,以培养高素质创新创业人才为目标,以“大工程观”为指导,以兰州交通大学“天佑”大学生创新团队为平台,以“项目学习”为实施工具,以“分组”和“队长制”为组织形式,建立“塔式”培养模式的电子信息类创新创业实训体系和实践教育体系。 展开更多
关键词 电子信息类 新工科 创新创业
下载PDF
结构细化的神经风格迁移
3
作者 沈瑜 杨倩 +3 位作者 陈小朋 苑玉彬 张泓国 王霖 《电子与信息学报》 EI CSCD 北大核心 2021年第8期2361-2369,共9页
风格迁移过程中风格元素均匀分布在整个图像中会使风格化图像细节模糊,现有的迁移方法主要关注迁移风格的多样性,忽略了风格化图像的内容结构和细节信息。因此,该文提出结构细化的神经风格迁移方法,通过增加边缘检测网络对内容图像的轮... 风格迁移过程中风格元素均匀分布在整个图像中会使风格化图像细节模糊,现有的迁移方法主要关注迁移风格的多样性,忽略了风格化图像的内容结构和细节信息。因此,该文提出结构细化的神经风格迁移方法,通过增加边缘检测网络对内容图像的轮廓边缘进行提取实现风格化图像内容结构的细化,凸显内容图像中的主要目标;通过对转换网络中的常规卷积层的较大卷积核进行替换,在具有相同的感受野的条件下,使网络模型参数更少,提升了迁移速度;通过对转换网络中的常规卷积层添加自适应归一化层,利用自适应归一化在特征通道中检测特定样式笔触产生较高的非线性同时保留内容图像的空间结构特性来细化生成图像的结构。该方法能够细化风格化图像的整体结构,使得风格化图像连贯性更好,解决了风格纹理均匀分布使得风格化图像细节模糊的问题,提高了图像风格迁移的质量。 展开更多
关键词 图像处理 深度学习 神经网络 风格迁移 边缘检测 归一化
下载PDF
A convolutional neural artistic stylization algorithm for suppressing image distortion
4
作者 SHEN Yu YANG Qian +1 位作者 ZHANG Hongguo WANG Lin 《Journal of Measurement Science and Instrumentation》 CAS CSCD 2021年第3期287-294,共8页
Aiming at the problems of image semantic content distortion and blurred foreground and background boundaries during the transfer process of convolutional neural image stylization,we propose a convolutional neural arti... Aiming at the problems of image semantic content distortion and blurred foreground and background boundaries during the transfer process of convolutional neural image stylization,we propose a convolutional neural artistic stylization algorithm for suppressing image distortion.Firstly,the VGG-19 network model is used to extract the feature map from the input content image and style image and to reconstruct the content and style.Then the transfer of the input content image and style image to the output image is constrained in the local affine transformation of the color space.And the Laplacian matting matrix is constructed by combining the local affine of the input image RGB channel.For each output blocks,affine transformation maps the RGB value of the input image to the corresponding output and position,which realizes the constraint of semantic content and the control of spatial layout.Finally,the synthesized image is superimposed on the white noise image and updated iteratively with the back propagation algorithm to minimize the loss function to complete the image stylization.Experimental results show that the method can generate images with obvious foreground and background edges,clear texture,restrained semantic content-distortion,realized spatial constraint and color mapping of the transfer images,and made the stylized images visually satisfactory. 展开更多
关键词 neural network style transfer deep learning affine transformation
下载PDF
Automatic road extraction framework based on codec network
5
作者 WANG Lin SHEN Yu +2 位作者 ZHANG Hongguo LIANG Dong NIU Dongxing 《Journal of Measurement Science and Instrumentation》 CAS 2024年第3期318-327,共10页
Road extraction based on deep learning is one of hot spots of semantic segmentation in the past decade.In this work,we proposed a framework based on codec network for automatic road extraction from remote sensing imag... Road extraction based on deep learning is one of hot spots of semantic segmentation in the past decade.In this work,we proposed a framework based on codec network for automatic road extraction from remote sensing images.Firstly,a pre-trained ResNet34 was migrated to U-Net and its encoding structure was replaced to deepen the number of network layers,which reduces the error rate of road segmentation and the loss of details.Secondly,dilated convolution was used to connect the encoder and the decoder of network to expand the receptive field and retain more low-dimensional information of the image.Afterwards,the channel attention mechanism was used to select the information of the feature image obtained by up-sampling of the encoder,the weights of target features were optimized to enhance the features of target region and suppress the features of background and noise regions,and thus the feature extraction effect of the remote sensing image with complex background was optimized.Finally,an adaptive sigmoid loss function was proposed,which optimizes the imbalance between the road and the background,and makes the model reach the optimal solution.Experimental results show that compared with several semantic segmentation networks,the proposed method can greatly reduce the error rate of road segmentation and effectively improve the accuracy of road extraction from remote sensing images. 展开更多
关键词 remote sensing image road extraction ResNet34 U-Net channel attention mechanism sigmoid loss function
下载PDF
基于显著矩阵与神经网络的红外与可见光图像融合 被引量:13
6
作者 沈瑜 陈小朋 +2 位作者 苑玉彬 王霖 张泓国 《激光与光电子学进展》 CSCD 北大核心 2020年第20期68-78,共11页
针对红外与可见光图像融合过程中出现的细节损失严重、视觉效果不佳等问题,提出了基于多尺度几何变换模型的融合方法。首先,采用改进的视觉显著性检测算法对红外与可见光图像进行显著性检测,并构建显著性矩阵;然后,对红外与可见光图像... 针对红外与可见光图像融合过程中出现的细节损失严重、视觉效果不佳等问题,提出了基于多尺度几何变换模型的融合方法。首先,采用改进的视觉显著性检测算法对红外与可见光图像进行显著性检测,并构建显著性矩阵;然后,对红外与可见光图像进行非下采样剪切波变换,得到相应的低频和高频子带,并采用显著性矩阵对低频子带进行自适应加权融合,同时采用简化的脉冲耦合神经网络并结合多方向拉普拉斯能量和对高频子带进行融合处理;最后,通过逆变换得到融合图像。实验结果表明,该方法能够有效提升融合图像的对比度并保留源图像的细节信息,融合图像具有良好的视觉效果,且多个客观评价指标均表现良好。 展开更多
关键词 图像处理 图像融合 显著性检测 非下采样剪切波变换 脉冲耦合神经网络
原文传递
基于混合模型驱动的红外与可见光图像融合 被引量:8
7
作者 沈瑜 陈小朋 +2 位作者 刘成 张泓国 王霖 《控制与决策》 EI CSCD 北大核心 2021年第9期2143-2151,共9页
为了解决红外与可见光图像融合中显著特征不突出、图像对比度低的问题,提出一种混合模型驱动的融合算法.首先,采用潜在低秩表示模型分别提取红外与可见光图像的基础子带、显著子带及稀疏噪声子带;其次,采用非下采样剪切波变换模型将基... 为了解决红外与可见光图像融合中显著特征不突出、图像对比度低的问题,提出一种混合模型驱动的融合算法.首先,采用潜在低秩表示模型分别提取红外与可见光图像的基础子带、显著子带及稀疏噪声子带;其次,采用非下采样剪切波变换模型将基础子带分解为低频系数和高频系数,对低频系数采用字典学习和稀疏表示进行精确拟合,对高频系数采用局部窗口结合逻辑加权进行选择;再次,显著子带采用区域能量比阈值自适应加权法进行融合;最后,对融合后的低频系数和高频系数进行一级重建,得到融合基础子带,舍弃稀疏噪声子带,再结合融合显著子带进行二级重建,得到融合图像.实验结果表明:所提出算法能够得到蕴含丰富信息且较为清晰的融合图像,具有可行性;融合结果的对比度较高,目标轮廓显著,能够提升场景的辨识度,具有有效性. 展开更多
关键词 图像融合 潜在低秩表示 非下采样剪切波变换 区域能量比 稀疏表示 逻辑加权
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部