期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于密集残差块生成对抗网络的空间目标图像超分辨率重建
被引量:
13
1
作者
景海钊
史江林
+2 位作者
邱梦哲
齐勇
朱文骁
《光学精密工程》
EI
CAS
CSCD
北大核心
2022年第17期2155-2165,共11页
为了获取更高分辨率和清晰度的空间目标光学图像,需对地基自适应光学(Adaptive Optics,AO)成像望远镜校正后的降质图像进行超分辨率重建。针对空间目标AO图像背景单一、分辨率有限且存在运动模糊、湍流模糊以及过曝等特点,提出基于深度...
为了获取更高分辨率和清晰度的空间目标光学图像,需对地基自适应光学(Adaptive Optics,AO)成像望远镜校正后的降质图像进行超分辨率重建。针对空间目标AO图像背景单一、分辨率有限且存在运动模糊、湍流模糊以及过曝等特点,提出基于深度学习的生成对抗网络(Generative Adversarial Networks,GAN)方法来实现空间目标AO图像的超分辨率重建,构建了空间目标AO仿真图像训练集用于神经网络训练,提出了一种基于密集残差块的GAN超分辨率重建方法,通过将传统残差网络改为密集残差块,提高网络深度,将相对平均损失函数引入判别器网络,从而使得判别器更稳健,GAN训练更稳定。实验结果表明:本文提出的方法相较传统插值超分辨率方法PSNR提高11.6%以上,SSIM提高10.3%以上,相较基于深度学习的盲图像超分辨率方法PSNR平均提高6.5%,SSIM平均提高4.9%。该方法有效实现了空间目标AO图像的清晰化重建,降低了重建图像的伪影,丰富了图像细节。
展开更多
关键词
空间目标图像
超分辨率
生成对抗网络
密集残差块
下载PDF
职称材料
题名
基于密集残差块生成对抗网络的空间目标图像超分辨率重建
被引量:
13
1
作者
景海钊
史江林
邱梦哲
齐勇
朱文骁
机构
陕西科技大学陕西人工智能联合实验室
西安交通大学系统工程研究所
西安卫星测控中心
陕西科技大学电子信息与人工智能学院
出处
《光学精密工程》
EI
CAS
CSCD
北大核心
2022年第17期2155-2165,共11页
基金
应用光学国家重点实验室资助项目(No.SKLAO2021001A04)。
文摘
为了获取更高分辨率和清晰度的空间目标光学图像,需对地基自适应光学(Adaptive Optics,AO)成像望远镜校正后的降质图像进行超分辨率重建。针对空间目标AO图像背景单一、分辨率有限且存在运动模糊、湍流模糊以及过曝等特点,提出基于深度学习的生成对抗网络(Generative Adversarial Networks,GAN)方法来实现空间目标AO图像的超分辨率重建,构建了空间目标AO仿真图像训练集用于神经网络训练,提出了一种基于密集残差块的GAN超分辨率重建方法,通过将传统残差网络改为密集残差块,提高网络深度,将相对平均损失函数引入判别器网络,从而使得判别器更稳健,GAN训练更稳定。实验结果表明:本文提出的方法相较传统插值超分辨率方法PSNR提高11.6%以上,SSIM提高10.3%以上,相较基于深度学习的盲图像超分辨率方法PSNR平均提高6.5%,SSIM平均提高4.9%。该方法有效实现了空间目标AO图像的清晰化重建,降低了重建图像的伪影,丰富了图像细节。
关键词
空间目标图像
超分辨率
生成对抗网络
密集残差块
Keywords
space object images
super resolution
Generative Adversarial Network(GAN)
dense residual blocks
分类号
TP394.1 [自动化与计算机技术—计算机应用技术]
TH691.9 [机械工程—机械制造及自动化]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于密集残差块生成对抗网络的空间目标图像超分辨率重建
景海钊
史江林
邱梦哲
齐勇
朱文骁
《光学精密工程》
EI
CAS
CSCD
北大核心
2022
13
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部