期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于生成对抗网络的文本图像联合超分辨率与去模糊方法
被引量:
6
1
作者
陈赛健
朱远平
《计算机应用》
CSCD
北大核心
2020年第3期859-864,共6页
针对现有的超分辨率方法难以从模糊的低分辨率图像中重建出清晰的高分辨率图像的问题,提出了一种基于生成式对抗网络(GAN)的文本图像联合超分辨率与去模糊方法。首先,本方法聚焦于严重模糊的低分辨率文本图像,由上采样模块和去模糊模块...
针对现有的超分辨率方法难以从模糊的低分辨率图像中重建出清晰的高分辨率图像的问题,提出了一种基于生成式对抗网络(GAN)的文本图像联合超分辨率与去模糊方法。首先,本方法聚焦于严重模糊的低分辨率文本图像,由上采样模块和去模糊模块两部分组成生成器网络;然后,通过上采样模块对输入图像上采样,生成模糊的超分辨率图像;进一步利用去模糊模块重建出清晰的超分辨率图像;最后,为了更好地恢复文本图像,引入了一个联合训练损失,包含超分辨率像素损失与去模糊像素损失、语义层的特征匹配损失以及对抗损失。在合成图像和真实图像上的大量实验结果表明,与现有的先进算法--单类GAN(SCGAN)相比,峰值信噪比(PSNR)、结构相似度(SSIM)和光学字符识别(OCR)精度分别提高了1.52 dB、0.0115和13.2个百分点。所提方法能更好地处理真实场景下的退化文本图像,同时计算成本较低。
展开更多
关键词
超分辨率
去模糊
生成对抗网络
残差学习
文本图像
下载PDF
职称材料
题名
基于生成对抗网络的文本图像联合超分辨率与去模糊方法
被引量:
6
1
作者
陈赛健
朱远平
机构
天津师范大学计算机与信息工程学院
出处
《计算机应用》
CSCD
北大核心
2020年第3期859-864,共6页
基金
国家自然科学基金资助项目(61602345,61703306)
天津自然科学基金资助项目(18JCYBJC85000,16JCQNJC00600)~~
文摘
针对现有的超分辨率方法难以从模糊的低分辨率图像中重建出清晰的高分辨率图像的问题,提出了一种基于生成式对抗网络(GAN)的文本图像联合超分辨率与去模糊方法。首先,本方法聚焦于严重模糊的低分辨率文本图像,由上采样模块和去模糊模块两部分组成生成器网络;然后,通过上采样模块对输入图像上采样,生成模糊的超分辨率图像;进一步利用去模糊模块重建出清晰的超分辨率图像;最后,为了更好地恢复文本图像,引入了一个联合训练损失,包含超分辨率像素损失与去模糊像素损失、语义层的特征匹配损失以及对抗损失。在合成图像和真实图像上的大量实验结果表明,与现有的先进算法--单类GAN(SCGAN)相比,峰值信噪比(PSNR)、结构相似度(SSIM)和光学字符识别(OCR)精度分别提高了1.52 dB、0.0115和13.2个百分点。所提方法能更好地处理真实场景下的退化文本图像,同时计算成本较低。
关键词
超分辨率
去模糊
生成对抗网络
残差学习
文本图像
Keywords
super-resolution
deblurring
Generative Adversarial Network(GAN)
residual learning
text image
分类号
TP391.41 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于生成对抗网络的文本图像联合超分辨率与去模糊方法
陈赛健
朱远平
《计算机应用》
CSCD
北大核心
2020
6
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部