期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
一种改进的用于服装解析的自监督网络学习方法 被引量:6
1
作者 白美丽 万韬阮 +2 位作者 汤汶 朱欣娟 薛涛 《纺织高校基础科学学报》 CAS 2019年第4期385-392,410,共9页
针对现有的服装解析算法在复杂背景下分割准确率较低,依赖姿态估计等问题,提出一种基于深度卷积神经网络的自监督服装解析方法(Deeplabv2-SSL),即在Deeplabv2网络中注入一种自监督的结构敏感学习算法。新的算法在训练过程中不需要标注... 针对现有的服装解析算法在复杂背景下分割准确率较低,依赖姿态估计等问题,提出一种基于深度卷积神经网络的自监督服装解析方法(Deeplabv2-SSL),即在Deeplabv2网络中注入一种自监督的结构敏感学习算法。新的算法在训练过程中不需要标注任何人体关节信息,直接从像素标签中学习人体更高层次的信息,利用学习到的人体关节信息更好地定位服装分割的区域,降低了姿态估计过程中的损失。实验表明,Deeplabv2-SSL网络可以有效地解析服装中人体的个别部位以及服装区域。测试过程中总体像素精度大约83.37%,平均像素精度大约52.53%,较其他语义分割模型性能更佳。 展开更多
关键词 服装解析 语义分割 深度卷积神经网络 自监督学习 姿态估计
下载PDF
基于多尺度融合增强的服装图像解析方法 被引量:2
2
作者 陈丽芳 余恩婷 《同济大学学报(自然科学版)》 EI CAS CSCD 北大核心 2022年第10期1385-1391,共7页
基于卷积神经网络中的各个层次特征,提出了一种基于多尺度融合增强的服装图像解析方法。通过融合增强模块,在考虑全局信息的基础上对包含的语义信息和不同尺度特征进行有效融合。结果表明:在Fashion Clothing测试集上的平均F1分数达到60... 基于卷积神经网络中的各个层次特征,提出了一种基于多尺度融合增强的服装图像解析方法。通过融合增强模块,在考虑全局信息的基础上对包含的语义信息和不同尺度特征进行有效融合。结果表明:在Fashion Clothing测试集上的平均F1分数达到60.57%,在LIP(Look Into Person)验证集上的平均交并比(mean intersection over union,MIoU)达到54.93%。该方法可以有效地提升服装图像解析精度。 展开更多
关键词 服装图像解析 多尺度融合增强网络 卷积神经网络
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部