期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
基于中心凹恰可觉察失真模型的多视点深度视频编码方法 被引量:5
1
作者 朱亚培 蒋刚毅 +3 位作者 王晓东 郁梅 邵枫 彭宗举 《光电子.激光》 EI CAS CSCD 北大核心 2012年第12期2382-2390,共9页
针对深度视频压缩中存在的大量视觉冗余,提出了一种基于中心凹恰可觉察失真(FJND)模型的深度视频编码方法。首先通过左右通道的彩色和深度视频绘制虚拟视点图像,并利用FJND模型得到虚拟视点图像的FJND,然后根据深度视频中几何偏移和深... 针对深度视频压缩中存在的大量视觉冗余,提出了一种基于中心凹恰可觉察失真(FJND)模型的深度视频编码方法。首先通过左右通道的彩色和深度视频绘制虚拟视点图像,并利用FJND模型得到虚拟视点图像的FJND,然后根据深度视频中几何偏移和深度值失真之间的关系确定深度视频左通道的可允许失真,将深度视频左通道分区域采用自适应量化参数进行编码,并对右通道的深度视频根据与左通道量化参数的关系进行编码。实验结果表明,本文方法在相同码率下,虚拟视点图像质量平均提高0.48dB;在相同虚拟视点图像的绘制质量下,深度视频编码码率平均减少26%。 展开更多
关键词 三维电视(3D-TV) 多视点深度视频 中心凹恰可觉察失真(FJND) 几何偏移
原文传递
多视点与深度视频编码技术研究综述 被引量:2
2
作者 胡金晖 胡瑞敏 +2 位作者 王中元 严飞飞 黄震坤 《电声技术》 2011年第12期78-83,共6页
多视点与深度视频(MVD)可以有效表示自由视点视频,减少了需传输视点的个数,该表达形式正受到越来越多的关注,如何对MVD进行高效编码尤为重要。介绍了自由视点视频的发展现状及国内外研究概况,详细讨论了深度图像的高效编码技术及多视点... 多视点与深度视频(MVD)可以有效表示自由视点视频,减少了需传输视点的个数,该表达形式正受到越来越多的关注,如何对MVD进行高效编码尤为重要。介绍了自由视点视频的发展现状及国内外研究概况,详细讨论了深度图像的高效编码技术及多视点与深度联合编码技术,并对多视点与深度视频编码技术进行了总结及展望。 展开更多
关键词 3D视频 自由视点视频 多视点深度视频编码
下载PDF
一种深度图帧内预测模式决策改进算法
3
作者 李强 范杰羚 明艳 《重庆邮电大学学报(自然科学版)》 CSCD 北大核心 2017年第6期837-843,共7页
为减小3D-高效视频编码(three dimensional-high efficiency video coding,3D-HEVC)的编码复杂度,提出一种深度图帧内预测模式决策改进算法。一方面,采用拉普拉斯边缘检测法对是否遍历深度模型模式(depth modeling modes,DMMs)进行快速... 为减小3D-高效视频编码(three dimensional-high efficiency video coding,3D-HEVC)的编码复杂度,提出一种深度图帧内预测模式决策改进算法。一方面,采用拉普拉斯边缘检测法对是否遍历深度模型模式(depth modeling modes,DMMs)进行快速判决;另一方面,利用预测单元(prediction unit,PU)的楔形分割线与其纹理特征的相关性,只对候选预测模式中的帧内角度模式相关的楔形分割进行搜索,减少楔形分割模式遍历的数量,实现DMM1模式的快速决策。经测试,算法在平均编码比特率增加很少的情况下,深度模型模式的平均编码时间降低了53.65%,而深度图的合成质量基本不变。 展开更多
关键词 多视点视频深度 帧内预测模式 楔形分割 快速决策
下载PDF
面向虚拟视点绘制空洞填充的渐进式迭代网络
4
作者 刘家希 周洋 +2 位作者 林坤 殷海兵 唐向宏 《中国图象图形学报》 CSCD 北大核心 2024年第7期1948-1959,共12页
目的 基于深度图像的绘制(depth image based rendering,DIBR)是合成虚拟视点图像的关键技术,但在绘制过程中虚拟视图会出现裂纹和空洞问题。针对传统算法导致大面积空洞区域像素混叠和模糊的问题,将深度学习模型应用于虚拟视点绘制空... 目的 基于深度图像的绘制(depth image based rendering,DIBR)是合成虚拟视点图像的关键技术,但在绘制过程中虚拟视图会出现裂纹和空洞问题。针对传统算法导致大面积空洞区域像素混叠和模糊的问题,将深度学习模型应用于虚拟视点绘制空洞填充领域,提出了面向虚拟视点绘制空洞填充的渐进式迭代网络。方法 首先,使用部分卷积对大面积空洞进行渐进修复。然后采用U-Net网络作为主干对空洞区域进行编解码操作,同时嵌入知识一致注意力模块加强网络对有效特征的利用。接着通过加权合并方法来融合每次渐进式迭代生成的特征图,保护早期特征不被破坏。最后结合上下文特征传播损失提高网络匹配过程中的鲁棒性。结果 在微软实验室提供的2个多视点3D(three-dimension)视频序列以及4个3D-HEVC(3D high efficiency video coding)序列上进行定量与定性评估实验,以峰值信噪比(peak signal-to-noise ratio,PSNR)和结构相似性(structural similarity,SSIM)作为指标。实验结果表明,本文算法在主观和客观上均优于已有方法。相比于性能第2的模型,在Ballet、Breakdancers、Lovebird1和Poznan_Street数据集上,本文算法的PSNR提升了1.302 dB、1.728 dB、0.068 dB和0.766 dB,SSIM提升了0.007、0.002、0.002和0.033;在Newspaper和Kendo数据集中,PSNR提升了0.418 dB和0.793 dB,SSIM提升了0.011和0.007。同时进行消融实验验证了本文方法的有效性。结论 本文提出的渐进式迭代网络模型,解决了虚拟视点绘制空洞填充领域中传统算法过程烦琐和前景纹理渗透严重的问题,取得了极具竞争力的填充结果。 展开更多
关键词 虚拟视点绘制 空洞填充 注意力 特征提取 多视点视频深度
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部