期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
新的红外图像小目标检测方法(英文)
被引量:
7
1
作者
崔玉平
刘永才
《红外与激光工程》
EI
CSCD
北大核心
2005年第5期587-591,共5页
在分析了海空背景下舰船目标红外图像特征的基础上,提出了一种基于背景粗糙度估计的红外图像小目标自适应检测算法,该算法利用LOG算子检测目标的大致轮廓,确定目标的中心点作为区域生长的种子点,可以看作是为后续处理压缩数据量的一种...
在分析了海空背景下舰船目标红外图像特征的基础上,提出了一种基于背景粗糙度估计的红外图像小目标自适应检测算法,该算法利用LOG算子检测目标的大致轮廓,确定目标的中心点作为区域生长的种子点,可以看作是为后续处理压缩数据量的一种方法。它可以减少运算量,提高检测速度,抑制对不必要的种子点的区域生长,提高目标的检测概率。
展开更多
关键词
小
目标检测与分割
LOG算子
背景粗糙度
区域生长
下载PDF
职称材料
智能人机交互中第一视角手势表达的一次性学习分类识别
被引量:
6
2
作者
鹿智
秦世引
+1 位作者
李连伟
张鼎豪
《自动化学报》
EI
CAS
CSCD
北大核心
2021年第6期1284-1301,共18页
在智能人机交互中,以交互人的视角为第一视角的手势表达发挥着重要作用,而面向第一视角的手势识别则成为最重要的技术环节.本文通过深度卷积神经网络的级联组合,研究复杂应用场景中第一视角下的一次性学习手势识别(Oneshot learning han...
在智能人机交互中,以交互人的视角为第一视角的手势表达发挥着重要作用,而面向第一视角的手势识别则成为最重要的技术环节.本文通过深度卷积神经网络的级联组合,研究复杂应用场景中第一视角下的一次性学习手势识别(Oneshot learning hand gesture recognition,OSLHGR)算法.考虑到实际应用的便捷性和适用性,运用改进的轻量级SSD(Single shot multibox detector)目标检测网络实现第一视角下手势目标的快速精确检测;进而,以改进的轻量级U-Net网络为主要工具进行复杂背景下手势目标的像素级高效精准分割.在此基础上,以组合式3D深度神经网络为工具,研究提出了一种第一视角下的一次性学习手势动作识别的网络化算法.在Pascal VOC 2012数据集和SoftKinetic DS325采集的手势数据集上进行的一系列实验测试结果表明,本文所提出的网络化算法在手势目标检测与分割精度、分类识别准确率和实时性等方面都有显著的优势,可为在复杂应用环境下实现便捷式高性能智能人机交互提供可靠的技术支持.
展开更多
关键词
智能人机交互
第一视角
深度卷积神经网络
目标检测与分割
一次性学习手势识别
下载PDF
职称材料
题名
新的红外图像小目标检测方法(英文)
被引量:
7
1
作者
崔玉平
刘永才
机构
华中科技大学模式识别与人工智能研究所图像处理与智能控制教育部重点实验室
出处
《红外与激光工程》
EI
CSCD
北大核心
2005年第5期587-591,共5页
基金
武器装备预先研究基金(51476040304JW0508)
文摘
在分析了海空背景下舰船目标红外图像特征的基础上,提出了一种基于背景粗糙度估计的红外图像小目标自适应检测算法,该算法利用LOG算子检测目标的大致轮廓,确定目标的中心点作为区域生长的种子点,可以看作是为后续处理压缩数据量的一种方法。它可以减少运算量,提高检测速度,抑制对不必要的种子点的区域生长,提高目标的检测概率。
关键词
小
目标检测与分割
LOG算子
背景粗糙度
区域生长
Keywords
Small target detection and segmentation
LOG operator
Roughness of the background
Region growing
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
智能人机交互中第一视角手势表达的一次性学习分类识别
被引量:
6
2
作者
鹿智
秦世引
李连伟
张鼎豪
机构
北京航空航天大学自动化科学与电气工程学院
东莞理工学院电子工程与智能化学院
北京航空航天大学电子信息工程学院
出处
《自动化学报》
EI
CAS
CSCD
北大核心
2021年第6期1284-1301,共18页
基金
国家自然科学基金重点项目(61731001)资助。
文摘
在智能人机交互中,以交互人的视角为第一视角的手势表达发挥着重要作用,而面向第一视角的手势识别则成为最重要的技术环节.本文通过深度卷积神经网络的级联组合,研究复杂应用场景中第一视角下的一次性学习手势识别(Oneshot learning hand gesture recognition,OSLHGR)算法.考虑到实际应用的便捷性和适用性,运用改进的轻量级SSD(Single shot multibox detector)目标检测网络实现第一视角下手势目标的快速精确检测;进而,以改进的轻量级U-Net网络为主要工具进行复杂背景下手势目标的像素级高效精准分割.在此基础上,以组合式3D深度神经网络为工具,研究提出了一种第一视角下的一次性学习手势动作识别的网络化算法.在Pascal VOC 2012数据集和SoftKinetic DS325采集的手势数据集上进行的一系列实验测试结果表明,本文所提出的网络化算法在手势目标检测与分割精度、分类识别准确率和实时性等方面都有显著的优势,可为在复杂应用环境下实现便捷式高性能智能人机交互提供可靠的技术支持.
关键词
智能人机交互
第一视角
深度卷积神经网络
目标检测与分割
一次性学习手势识别
Keywords
Intelligent human-computer interaction
egocentric viewpoint
deep convolutional neural network
object detection and segmentation
one-shot learning hand gesture recognition(OSLHGR)
分类号
TP391.41 [自动化与计算机技术—计算机应用技术]
TP183 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
新的红外图像小目标检测方法(英文)
崔玉平
刘永才
《红外与激光工程》
EI
CSCD
北大核心
2005
7
下载PDF
职称材料
2
智能人机交互中第一视角手势表达的一次性学习分类识别
鹿智
秦世引
李连伟
张鼎豪
《自动化学报》
EI
CAS
CSCD
北大核心
2021
6
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部