期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
恰可察觉深度差异模型的深度图优化方法 被引量:5
1
作者 张艳 安平 +2 位作者 张秋闻 王奎 张兆杨 《光电子.激光》 EI CAS CSCD 北大核心 2012年第7期1418-1424,共7页
针对人眼视觉对空间深度变化的灵敏度特性,研究人眼对深度细节感知的最小可察觉差值。通过大量的主观实验得到恰可察觉深度差异(JNDD,just noticeable depth difference)模型,并提出基于此JNDD的三边滤波深度图优化算法,用来抑制不被感... 针对人眼视觉对空间深度变化的灵敏度特性,研究人眼对深度细节感知的最小可察觉差值。通过大量的主观实验得到恰可察觉深度差异(JNDD,just noticeable depth difference)模型,并提出基于此JNDD的三边滤波深度图优化算法,用来抑制不被感知的深度细节,减少由于深度估计过程中引入的噪声而导致的深度绘制失真。主观和客观实验结果证明本文所提出的基于JNDD模型的三边滤波深度图优化算法,在降低深度编码码率的情况下,可使合成虚拟视点图像中物体的边缘更加平滑,减少了边缘噪声。 展开更多
关键词 可察觉深度差异(jndd)模型 三边滤波 MVD 深度估计 视点合成
原文传递
基于网格形变的立体变焦视觉优化 被引量:1
2
作者 周莘 柴雄力 邵枫 《光电工程》 CAS CSCD 北大核心 2021年第4期12-26,共15页
立体图像的视觉变焦优化是近年来图像处理和计算机视觉领域热门的基础研究问题。3D图像的变焦视觉增强技术越来越受到关注。为此,本文从相机变焦拍摄的模型出发,提出一种基于网格形变的立体变焦视觉优化方法,力求提高3D立体视觉的体验... 立体图像的视觉变焦优化是近年来图像处理和计算机视觉领域热门的基础研究问题。3D图像的变焦视觉增强技术越来越受到关注。为此,本文从相机变焦拍摄的模型出发,提出一种基于网格形变的立体变焦视觉优化方法,力求提高3D立体视觉的体验。首先利用数字变焦方法模拟相机模型对目标区域进行适当的视觉放大,然后根据相机变焦距离建立起参考图像与目标图像之间的映射关系,并提取前景目标对象,接着使用改进型深度恰可察觉深度模型来引导目标对象的自适应深度调整。最后结合本文所设计的七个网格优化能量项,对图像网格进行优化,以提高该目标对象的视觉感,并确保整幅立体图像的良好视觉体验效果。与现有的数字变焦方法相比,所提出的方法在图像目标对象的尺寸控制方面和目标对象的深度调整方面都具有更好的效果。 展开更多
关键词 立体图像 相机变焦 改进型深度可察觉深度模型 网格优化能量项
下载PDF
结合JND模型的交叉验证深度图质量评价方法
3
作者 陈嘉丽 彭宗举 +2 位作者 陈芬 蒋刚毅 郁梅 《光电子.激光》 EI CAS CSCD 北大核心 2018年第1期85-94,共10页
针对在3D视频(3DV)和自由视点视频(FVV)中传统的图像质量评价方法不适用于深度图的问题,本文从人类视觉感知特性出发,提出一种新的深度图质量评估算法。首先进行交叉验证,得到待评价深度图的差值图;然后提取遮挡掩膜,去除被遮挡的像素点... 针对在3D视频(3DV)和自由视点视频(FVV)中传统的图像质量评价方法不适用于深度图的问题,本文从人类视觉感知特性出发,提出一种新的深度图质量评估算法。首先进行交叉验证,得到待评价深度图的差值图;然后提取遮挡掩膜,去除被遮挡的像素点;再根据人类视觉特性,考虑背景亮度掩蔽、纹理掩蔽和边缘敏感性等因素,应用恰可察觉失真(JND)模型得到每个像素点的误差可视阈值;最后计算错误像素率作为度量指标评价深度图的质量。实验结果表明,本文提出的算法能够准确地检测错误像素,所提出的度量指标与全参考度量指标的相关系数的平均值为0.833 0,最高达到0.933 8,与合成虚拟视点均方误差的相关系数的平均值为0.857 9,最高达到0.928 3。 展开更多
关键词 深度 质量评价 人类视觉特性 交叉验证 可察觉失真(JND)模型
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部