期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
3
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
三次透视投影变换图像拼接
被引量:
3
1
作者
颜无瑕
刘传才
《光学精密工程》
EI
CAS
CSCD
北大核心
2015年第9期2724-2731,共8页
为了减少带有路面信息的建筑物图像的拼接中产生的图像失真并提高拼接速度,基于局部变形方法并结合建筑物和路面纹理信息的不同提出了三次投影变换图像拼接方法。该方法根据图像内容将图像分割成不同子图像,然后拼接图像内容相同的子图...
为了减少带有路面信息的建筑物图像的拼接中产生的图像失真并提高拼接速度,基于局部变形方法并结合建筑物和路面纹理信息的不同提出了三次投影变换图像拼接方法。该方法根据图像内容将图像分割成不同子图像,然后拼接图像内容相同的子图像,最后实施总体拼接。为了改善当前全局投影变换带来的图像形状失真或扭曲问题,整个拼接过程采用三次局部的透视投影图像变换方法。由于是在传统的透视投影变换的基础上基于图像内容分割后再拼接,故拼接结果比传统方法更精确、更真实。实验结果表明:采用提出的图像拼接方法克服了路面部分纹理信息过少导致图像失真的缺陷,拼接速度比相关拼接方法提高了20%~40%。该方法能快速得到清晰无缝的拼接图像,基本满足拼接速度快、真实度高的要求。
展开更多
关键词
图像分割
图像拼接
HOUGH变换
透视投影变换
下载PDF
职称材料
多视点下场景图像拼接研究
被引量:
1
2
作者
颜无瑕
刘传才
《国外电子测量技术》
2018年第4期15-19,共5页
为了减少多视点下场景图像拼接中大视差对图像拼接结果产生的影响,提出一种利用度量矫正转变场景图像视角来优化全景图像拼接的方法。给出了在摄像机内参数以及摄像机在世界平面中位置信息均未知的情况下,从场景的单视图图像恢复场景图...
为了减少多视点下场景图像拼接中大视差对图像拼接结果产生的影响,提出一种利用度量矫正转变场景图像视角来优化全景图像拼接的方法。给出了在摄像机内参数以及摄像机在世界平面中位置信息均未知的情况下,从场景的单视图图像恢复场景图像的度量结构,得到世界平面中场景的正面视图图像。然后,基于特征匹配的图像拼接算法得到带有重叠区域场景图像的全景图。实验结果表明,该方法的图像拼接自由度DOF由8降到了2,不仅简化了拼接过程,而且透视畸变也相应减少,得到的全景图像也更加清晰。
展开更多
关键词
图像拼接
度量矫正
消失点
下载PDF
职称材料
Deep Web中一种基于本体和BP网络的模式匹配方法
3
作者
颜无瑕
曹宝香
《济南大学学报(自然科学版)》
CAS
北大核心
2011年第1期23-26,共4页
针对Deep Web中模式匹配难度大的问题,根据目前模式匹配的特点,提出一种基于本体和BP网络相融合的的模式匹配新方法。该方法利用具有相同含义的本体分组来确立模式之间的对应关系,降低匹配的复杂度;利用BP网络的自我学习能力提高匹配的...
针对Deep Web中模式匹配难度大的问题,根据目前模式匹配的特点,提出一种基于本体和BP网络相融合的的模式匹配新方法。该方法利用具有相同含义的本体分组来确立模式之间的对应关系,降低匹配的复杂度;利用BP网络的自我学习能力提高匹配的自动化程度。实验结果表明该方法能明显提高模式匹配的精确度和召回率,有效地提高了匹配质量。
展开更多
关键词
DEEP
WEB
本体
BP网络
模式匹配
下载PDF
职称材料
题名
三次透视投影变换图像拼接
被引量:
3
1
作者
颜无瑕
刘传才
机构
南京理工大学计算机科学与工程学院
出处
《光学精密工程》
EI
CAS
CSCD
北大核心
2015年第9期2724-2731,共8页
基金
国防科工局高分专项(民用)资助项目(No.E0310/1112/02-1)
文摘
为了减少带有路面信息的建筑物图像的拼接中产生的图像失真并提高拼接速度,基于局部变形方法并结合建筑物和路面纹理信息的不同提出了三次投影变换图像拼接方法。该方法根据图像内容将图像分割成不同子图像,然后拼接图像内容相同的子图像,最后实施总体拼接。为了改善当前全局投影变换带来的图像形状失真或扭曲问题,整个拼接过程采用三次局部的透视投影图像变换方法。由于是在传统的透视投影变换的基础上基于图像内容分割后再拼接,故拼接结果比传统方法更精确、更真实。实验结果表明:采用提出的图像拼接方法克服了路面部分纹理信息过少导致图像失真的缺陷,拼接速度比相关拼接方法提高了20%~40%。该方法能快速得到清晰无缝的拼接图像,基本满足拼接速度快、真实度高的要求。
关键词
图像分割
图像拼接
HOUGH变换
透视投影变换
Keywords
image segmentation
image stitching~ Hough transformation
projective transformation
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
多视点下场景图像拼接研究
被引量:
1
2
作者
颜无瑕
刘传才
机构
南京理工大学计算机科学与工程学院
福建省信息处理与智能控制重点闽江学院(实验室)
出处
《国外电子测量技术》
2018年第4期15-19,共5页
文摘
为了减少多视点下场景图像拼接中大视差对图像拼接结果产生的影响,提出一种利用度量矫正转变场景图像视角来优化全景图像拼接的方法。给出了在摄像机内参数以及摄像机在世界平面中位置信息均未知的情况下,从场景的单视图图像恢复场景图像的度量结构,得到世界平面中场景的正面视图图像。然后,基于特征匹配的图像拼接算法得到带有重叠区域场景图像的全景图。实验结果表明,该方法的图像拼接自由度DOF由8降到了2,不仅简化了拼接过程,而且透视畸变也相应减少,得到的全景图像也更加清晰。
关键词
图像拼接
度量矫正
消失点
Keywords
image stitching
metric rectification
vanishing point
分类号
TP39 [自动化与计算机技术—计算机应用技术]
TN9 [电子电信—信息与通信工程]
下载PDF
职称材料
题名
Deep Web中一种基于本体和BP网络的模式匹配方法
3
作者
颜无瑕
曹宝香
机构
曲阜师范大学计算机科学学院
出处
《济南大学学报(自然科学版)》
CAS
北大核心
2011年第1期23-26,共4页
基金
山东省自然科学基金(ZR2009GM009)
文摘
针对Deep Web中模式匹配难度大的问题,根据目前模式匹配的特点,提出一种基于本体和BP网络相融合的的模式匹配新方法。该方法利用具有相同含义的本体分组来确立模式之间的对应关系,降低匹配的复杂度;利用BP网络的自我学习能力提高匹配的自动化程度。实验结果表明该方法能明显提高模式匹配的精确度和召回率,有效地提高了匹配质量。
关键词
DEEP
WEB
本体
BP网络
模式匹配
Keywords
Deep Web
ontology
neural network
schema matching
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
三次透视投影变换图像拼接
颜无瑕
刘传才
《光学精密工程》
EI
CAS
CSCD
北大核心
2015
3
下载PDF
职称材料
2
多视点下场景图像拼接研究
颜无瑕
刘传才
《国外电子测量技术》
2018
1
下载PDF
职称材料
3
Deep Web中一种基于本体和BP网络的模式匹配方法
颜无瑕
曹宝香
《济南大学学报(自然科学版)》
CAS
北大核心
2011
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部