为了克服基于单一视差合成的光场图像编码方法在遮挡区域无法恢复纹理细节的问题,提出一种基于多特征融合和几何感知网络的光场图像编码方法,以进一步提升遮挡场景下光场图像的压缩性能.首先,对密集光场稀疏采样,使用通用视频编码器(ver...为了克服基于单一视差合成的光场图像编码方法在遮挡区域无法恢复纹理细节的问题,提出一种基于多特征融合和几何感知网络的光场图像编码方法,以进一步提升遮挡场景下光场图像的压缩性能.首先,对密集光场稀疏采样,使用通用视频编码器(versatile video coding,VVC)对稀疏光场进行压缩;然后,在解码端使用2个关键分支模块,即视差估计模块和空间角度联合卷积模块,以获取光场图像全局的几何信息,确保在密集纹理和遮挡区域能够更充分地恢复特征;最后,为了挖掘2个分支融合特征的结构信息,构建了双向视图的堆栈结构,并运用几何感知的细化网络以重建高质量的密集光场.实验结果表明,与已有国际上流行的光场图像编码方法相比,所提出的方法具有显著优势.展开更多
文摘为了克服基于单一视差合成的光场图像编码方法在遮挡区域无法恢复纹理细节的问题,提出一种基于多特征融合和几何感知网络的光场图像编码方法,以进一步提升遮挡场景下光场图像的压缩性能.首先,对密集光场稀疏采样,使用通用视频编码器(versatile video coding,VVC)对稀疏光场进行压缩;然后,在解码端使用2个关键分支模块,即视差估计模块和空间角度联合卷积模块,以获取光场图像全局的几何信息,确保在密集纹理和遮挡区域能够更充分地恢复特征;最后,为了挖掘2个分支融合特征的结构信息,构建了双向视图的堆栈结构,并运用几何感知的细化网络以重建高质量的密集光场.实验结果表明,与已有国际上流行的光场图像编码方法相比,所提出的方法具有显著优势.