期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
基于深度学习的织物疵点检测研究进展 被引量:8
1
作者 王斌 李敏 +1 位作者 雷承霖 何儒汉 《纺织学报》 EI CAS CSCD 北大核心 2023年第1期219-227,共9页
为提高疵点检测的准确性和通用性,实现使用简洁而有效的形式对织物图像的特点和疵点的本质特征进行综合表达,首先,介绍了深度学习技术,对引入了深度学习的疵点检测方法进行综述,同时对深度学习与疵点检测的内在关系进行阐述;然后,分析... 为提高疵点检测的准确性和通用性,实现使用简洁而有效的形式对织物图像的特点和疵点的本质特征进行综合表达,首先,介绍了深度学习技术,对引入了深度学习的疵点检测方法进行综述,同时对深度学习与疵点检测的内在关系进行阐述;然后,分析总结了深度学习的概念及代表性的计算模型,并对引入深度学习的疵点检测方法进行归纳、总结和分类;最后,对典型的方法进行了分析,讨论了各种方法的优缺点,并对未来的研究趋势进行了展望。指出:随着深度学习的发展,探索更加通用的检测方法是推进深度学习在织物疵点检测领域应用的努力方向。 展开更多
关键词 深度学习 疵点检测 纺织品 神经网络 图像分割 机器视觉
下载PDF
基于YOLOv5n的轻量级织物疵点检测算法
2
作者 李洋 李敏 +2 位作者 黄政 董雄伟 朱立成 《毛纺科技》 CAS 北大核心 2024年第5期87-97,共11页
针对轻量级模型在检测织物疵点时精确率低的问题,在YOLOv5n的基础上提出一种上下文增强与混合感受野的织物疵点检测算法。首先,为主干网络设计了一种轻量扩张卷积空间金字塔模块,并将主干网络的下采样比增加至64,在增强上下文信息的同... 针对轻量级模型在检测织物疵点时精确率低的问题,在YOLOv5n的基础上提出一种上下文增强与混合感受野的织物疵点检测算法。首先,为主干网络设计了一种轻量扩张卷积空间金字塔模块,并将主干网络的下采样比增加至64,在增强上下文信息的同时提取更深层的语义信息,提高模型识别性能;其次,为颈部网络设计了一种混合感受野融合模块代替原C3模块并进行特征融合,提高极端长宽比目标的检测精度。实验表明:该算法在基于天池织物数据集上的IOU阈值为0.5时的平均精度均值mAP 50、精确率、召回率分别达到了93.1%、91.6%、89.1%,相较于原YOLOv5n算法分别提高了4.9%、7.3%、5.0%,且模型文件大小仅6.28 MB,更适用于织物疵点检测领域。 展开更多
关键词 疵点检测 深度学习 YOLOv5n 空间金字塔 感受野融合
下载PDF
基于EfficientNetV2和物体上下文表示的胃癌图像分割方法
3
作者 周迪 张自力 +3 位作者 陈佳 胡新荣 何儒汉 张俊 《计算机应用》 CSCD 北大核心 2023年第9期2955-2962,共8页
针对U-Net上采样过程容易丢失细节信息,以及胃癌病理图像数据集普遍偏小,容易出现过拟合的问题,提出一种基于改进U-Net的自动分割胃癌病理图像模型EOU-Net。EOU-Net在U-Net模型的基础上,将EfficientNetV2作为骨干特征提取网络,以增强网... 针对U-Net上采样过程容易丢失细节信息,以及胃癌病理图像数据集普遍偏小,容易出现过拟合的问题,提出一种基于改进U-Net的自动分割胃癌病理图像模型EOU-Net。EOU-Net在U-Net模型的基础上,将EfficientNetV2作为骨干特征提取网络,以增强网络编码器的特征提取能力。在解码阶段,基于物体上下文表示(OCR)探究细胞像素间的关系,并使用改进后的OCR模块解决上采样图像的细节丢失问题;然后,使用验证阶段增强(TTA)后处理对输入图像进行翻转和不同角度旋转后分别预测这些图像,再通过特征融合的方式将多个输入图像预测结果进行合并,进一步优化网络的输出结果,从而有效解决医学数据集较小的问题。在SEED、BOT以及PASCAL VOC 2012数据集上的实验结果表明,与OCRNet相比,EOU-Net的平均交并比(MIoU)分别提高了1.8、0.6以及4.5个百分点。可见EOU-Net能得到更准确的胃癌图像分割结果。 展开更多
关键词 语义分割 U-Net EfficientNetV2 物体上下文表示 胃癌
下载PDF
基于自适应网格划分的针织物仿真 被引量:2
4
作者 胡新荣 汪卓 +3 位作者 刘军平 彭涛 李敏 李丽 《现代纺织技术》 北大核心 2022年第5期21-30,59,共11页
为了提高针织物仿真效率并保证仿真效果的真实性,提出一种利用纱线模型周期性的方法。该方法首先建立网格与纱线模型之间的对应关系,然后对网格模型与纱线模型分别进行仿真。在整体形变效果方面以网格仿真为主,为了加快网格仿真速度、... 为了提高针织物仿真效率并保证仿真效果的真实性,提出一种利用纱线模型周期性的方法。该方法首先建立网格与纱线模型之间的对应关系,然后对网格模型与纱线模型分别进行仿真。在整体形变效果方面以网格仿真为主,为了加快网格仿真速度、提高低分辨率网格下的形变效果,仿真过程中使用自适应网格划分技术,根据形变的程度适当地细分与粗化相应位置的网格模型,并计算网格面的应变。在微观形变细节方面,使用不同的应变参数的输入对纱线最小重复单元进行仿真,得到该重复单元的输入应变参数与能量密度之间的关系。最后通过网格模型中得到的应变参数输入,将仿真结果映射到经过网格仿真输出的网格模型上。对5种不同针法的织物进行仿真实验,结果表明该方法比起传统网格仿真方法有更接近真实的形变效果,仿真过程中使用的模型顶点与网格数量相比输入网格减少20%~30%,并且在时间效率上最多能够提升39.7%。 展开更多
关键词 自适应网格划分 纱线模型 弹簧质点模型 针织物仿真
下载PDF
融合BERT与AttnGAN的文本生成图像方法
5
作者 何儒汉 贺凯凯 +2 位作者 陈常念 张自力 陈佳 《中国科技论文》 CAS 北大核心 2022年第3期260-268,共9页
针对文本生成图像任务中文本信息与生成图像的语义一致性,以及图像细节模糊、图像要素空间搭配合理性问题,提出了融合BERT文本编码模型和AttnGAN生成对抗网络模型的文本生成图像方法。首先,在文本与图像语义一致性训练中,借助预训练BER... 针对文本生成图像任务中文本信息与生成图像的语义一致性,以及图像细节模糊、图像要素空间搭配合理性问题,提出了融合BERT文本编码模型和AttnGAN生成对抗网络模型的文本生成图像方法。首先,在文本与图像语义一致性训练中,借助预训练BERT模型对文本进行句、字级别的特征编码,充分利用其在NLP任务中的优秀文本编码与强泛化能力深度匹配文本语义和图像区域的特征一致性;然后,在图像生成网络的第一阶段图像生成模块之前添加空间注意力模块,提高最终生成图像的语义一致性和空间位置的布局合理性。融合优化后的模型所生成的图像相比原AttnGAN模型,IS指标提升了0.17,FID指标降低了1.15,整体视觉效果更加细腻逼真,模型成功地在阿里天池服装数据集上应用,表明其具有良好的跨领域生成能力。 展开更多
关键词 文本生成图像 bert预训练模型 AttnGAN模型 空间注意力 语义一致性
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部