期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
3
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于光切显微镜的表面粗糙度视觉综合测量方法
被引量:
3
1
作者
尹加杰
金守峰
+3 位作者
陈阳
李毅
仝梦圆
高凯
《舰船电子工程》
2020年第7期181-185,共5页
针对光切显微镜不能综合测量粗糙度的高度参数和间距参数的问题,提出了基于光切显微镜的视觉测量表面粗糙度方法。通过安装在光切显微镜上的工业相机获取表面粗糙度图像,对图像进行预处理来提高图像对比度,采用最大类间方差法融合形态...
针对光切显微镜不能综合测量粗糙度的高度参数和间距参数的问题,提出了基于光切显微镜的视觉测量表面粗糙度方法。通过安装在光切显微镜上的工业相机获取表面粗糙度图像,对图像进行预处理来提高图像对比度,采用最大类间方差法融合形态学算法提取表面粗糙度的光带区域。根据光带区域上下边缘轮廓具有相同的峰谷特点,采用Freeman链码算法提取下边缘轮廓特征,结合边缘轮廓特征以最小二乘法拟合中线,建立了评定表面粗糙度的高度参数和间距参数的数学模型。实验结果表明,该方法测量的高度参数与光切显微镜读数最大相对误差为4.81%,同时实现了间距参数的测量,相对误差控制在4.47%,能够综合评定表面粗糙度。
展开更多
关键词
光切显微镜
机器视觉
表面粗糙度
高度参数
间距参数
最小二乘中线
下载PDF
职称材料
改进卷积神经网络的手写试卷分数识别方法
被引量:
11
2
作者
仝梦园
金守峰
+2 位作者
陈阳
李毅
尹加杰
《西安工程大学学报》
CAS
2020年第4期80-85,共6页
针对手写试卷分数识别中存在耗时长、错误率高的问题,提出了改进卷积神经网络(convolution neutral network,CNN)算法的手写试卷识别方法。为简化识别分数的类别,对手写试卷分数栏进行分割处理得到0~9共10类数字。为提高手写分数识别的...
针对手写试卷分数识别中存在耗时长、错误率高的问题,提出了改进卷积神经网络(convolution neutral network,CNN)算法的手写试卷识别方法。为简化识别分数的类别,对手写试卷分数栏进行分割处理得到0~9共10类数字。为提高手写分数识别的效率,提出卷积神经网络融合贝叶斯的分类识别算法,利用构建的卷积神经网络模型提取手写数字的特征,采用主成分分析(principal component analysis,PCA)算法对特征降维,通过贝叶斯分类器对0~9的10类数字进行判别分类,在Mnist数据库中验证该算法的准确性与效率。建立试卷分数求和模型,在手写试卷分数识别后进行自动求和。实验结果表明:对3门课程的1188份试卷手写分数的识别,相对于其他算法,该方法的识别率为98.23%,平均每份试卷识别时间为7.5 s,证明了算法的实用性。
展开更多
关键词
分数统计
数字识别
卷积神经网络
主成分分析
贝叶斯分类器
深度学习
下载PDF
职称材料
基于Kinect V2的筒子纱作业机器人视觉定位方法
被引量:
3
3
作者
李毅
金守峰
+2 位作者
尹加杰
仝梦园
陈阳
《纺织高校基础科学学报》
CAS
2020年第3期31-37,共7页
针对筒子纱作业机器人对作业目标缺乏识别定位的问题,提出基于Kinect V2的筒子纱视觉定位方法。利用Kinect V2相机获取同一场景下筒子纱目标的RGB图像与深度图像,根据筒子纱表面纹理的特点,采用K-means聚类算法对预处理后的RGB图像进行...
针对筒子纱作业机器人对作业目标缺乏识别定位的问题,提出基于Kinect V2的筒子纱视觉定位方法。利用Kinect V2相机获取同一场景下筒子纱目标的RGB图像与深度图像,根据筒子纱表面纹理的特点,采用K-means聚类算法对预处理后的RGB图像进行分割,找出目标区域;通过多尺度边缘融合提取筒子纱边缘轮廓,利用低阶几何矩确定筒子纱目标轮廓质心点的二维坐标;根据相机标定参数实现彩色图像和深度图像的对齐,以及二维坐标到三维空间坐标的转换,并计算出筒子纱质心点的三维空间坐标。实验结果表明:该方法能够对不同放置状态下的筒子纱目标进行三维质心定位,误差控制在4 mm以内。此定位方法为筒子纱机器人抓取、转运及包装系统的设计提供参考。
展开更多
关键词
Kinect
V2
筒子纱
K-MEANS聚类
多尺度边缘融合
识别定位
下载PDF
职称材料
题名
基于光切显微镜的表面粗糙度视觉综合测量方法
被引量:
3
1
作者
尹加杰
金守峰
陈阳
李毅
仝梦圆
高凯
机构
西安工程大学机电工程学院
出处
《舰船电子工程》
2020年第7期181-185,共5页
基金
国家自然科学基金青年项目“食品重金属污染光声光谱检测新技术原理研究”(编号:61701384)资助。
文摘
针对光切显微镜不能综合测量粗糙度的高度参数和间距参数的问题,提出了基于光切显微镜的视觉测量表面粗糙度方法。通过安装在光切显微镜上的工业相机获取表面粗糙度图像,对图像进行预处理来提高图像对比度,采用最大类间方差法融合形态学算法提取表面粗糙度的光带区域。根据光带区域上下边缘轮廓具有相同的峰谷特点,采用Freeman链码算法提取下边缘轮廓特征,结合边缘轮廓特征以最小二乘法拟合中线,建立了评定表面粗糙度的高度参数和间距参数的数学模型。实验结果表明,该方法测量的高度参数与光切显微镜读数最大相对误差为4.81%,同时实现了间距参数的测量,相对误差控制在4.47%,能够综合评定表面粗糙度。
关键词
光切显微镜
机器视觉
表面粗糙度
高度参数
间距参数
最小二乘中线
Keywords
light-cut microscope
machine vision
surface roughness
height parameter
spacing parameter
least squares cen-terlin
分类号
TN247 [电子电信—物理电子学]
下载PDF
职称材料
题名
改进卷积神经网络的手写试卷分数识别方法
被引量:
11
2
作者
仝梦园
金守峰
陈阳
李毅
尹加杰
机构
西安工程大学机电工程学院/西安市现代智能纺织装备重点实验室
出处
《西安工程大学学报》
CAS
2020年第4期80-85,共6页
基金
陕西省科技计划项目(2020GY-172)
西安市科技局创新引导项目(201805030YD8CG14(5))
西安市现代智能纺织装备重点实验室项目(2019220614SYS021CG043)。
文摘
针对手写试卷分数识别中存在耗时长、错误率高的问题,提出了改进卷积神经网络(convolution neutral network,CNN)算法的手写试卷识别方法。为简化识别分数的类别,对手写试卷分数栏进行分割处理得到0~9共10类数字。为提高手写分数识别的效率,提出卷积神经网络融合贝叶斯的分类识别算法,利用构建的卷积神经网络模型提取手写数字的特征,采用主成分分析(principal component analysis,PCA)算法对特征降维,通过贝叶斯分类器对0~9的10类数字进行判别分类,在Mnist数据库中验证该算法的准确性与效率。建立试卷分数求和模型,在手写试卷分数识别后进行自动求和。实验结果表明:对3门课程的1188份试卷手写分数的识别,相对于其他算法,该方法的识别率为98.23%,平均每份试卷识别时间为7.5 s,证明了算法的实用性。
关键词
分数统计
数字识别
卷积神经网络
主成分分析
贝叶斯分类器
深度学习
Keywords
score statistics
number recognition
convolution neutral network(CNN)
principal component analysis(PCA)
Bayes classifier
deep learning
分类号
TP391.4 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
基于Kinect V2的筒子纱作业机器人视觉定位方法
被引量:
3
3
作者
李毅
金守峰
尹加杰
仝梦园
陈阳
机构
西安工程大学机电工程学院/西安市现代智能纺织装备重点实验室
出处
《纺织高校基础科学学报》
CAS
2020年第3期31-37,共7页
基金
陕西省科技计划项目(2020GY-172)
西安市现代智能纺织装备重点实验室项目(2019220614SYS021CG043)
陕西省自然科学基础研究计划项目(2017JM5141)。
文摘
针对筒子纱作业机器人对作业目标缺乏识别定位的问题,提出基于Kinect V2的筒子纱视觉定位方法。利用Kinect V2相机获取同一场景下筒子纱目标的RGB图像与深度图像,根据筒子纱表面纹理的特点,采用K-means聚类算法对预处理后的RGB图像进行分割,找出目标区域;通过多尺度边缘融合提取筒子纱边缘轮廓,利用低阶几何矩确定筒子纱目标轮廓质心点的二维坐标;根据相机标定参数实现彩色图像和深度图像的对齐,以及二维坐标到三维空间坐标的转换,并计算出筒子纱质心点的三维空间坐标。实验结果表明:该方法能够对不同放置状态下的筒子纱目标进行三维质心定位,误差控制在4 mm以内。此定位方法为筒子纱机器人抓取、转运及包装系统的设计提供参考。
关键词
Kinect
V2
筒子纱
K-MEANS聚类
多尺度边缘融合
识别定位
Keywords
Kinect V2
bobbin yarn
K-means clustering
multi-scale edge fusion
recognition and positioning
分类号
TP391.4 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于光切显微镜的表面粗糙度视觉综合测量方法
尹加杰
金守峰
陈阳
李毅
仝梦圆
高凯
《舰船电子工程》
2020
3
下载PDF
职称材料
2
改进卷积神经网络的手写试卷分数识别方法
仝梦园
金守峰
陈阳
李毅
尹加杰
《西安工程大学学报》
CAS
2020
11
下载PDF
职称材料
3
基于Kinect V2的筒子纱作业机器人视觉定位方法
李毅
金守峰
尹加杰
仝梦园
陈阳
《纺织高校基础科学学报》
CAS
2020
3
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部