期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
3
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于关键区域的二值化场景特征快速提取方法
被引量:
3
1
作者
姚萌
贾克斌
萧允治
《计算机工程与应用》
CSCD
北大核心
2018年第6期14-18,61,共6页
近年来,驾驶辅助系统中基于视频信息的车辆定位技术受到广泛关注。针对轻轨系统高精度场景匹配中场景相似度过高导致定位困难的问题,提出了一种关键区域及二值化特征提取方法。该方法以离线处理的方式在高相似度的参考序列帧内提取具有...
近年来,驾驶辅助系统中基于视频信息的车辆定位技术受到广泛关注。针对轻轨系统高精度场景匹配中场景相似度过高导致定位困难的问题,提出了一种关键区域及二值化特征提取方法。该方法以离线处理的方式在高相似度的参考序列帧内提取具有显著性信息的关键区域,并在这些区域中生成二值化特征描述符以提高实时场景匹配的速度与准确率。在香港轻轨数据集以及公开的Nordland数据集中,相对于局部场景特征,基于提出的关键区域特征的场景匹配方法错误偏差下降31.43%,同时节约了94.22%的匹配时间;与Seq SLAM场景跟踪算法相比,在不显著增加运行时间的前提下,基于关键区域二值化场景特征的场景跟踪正确率提高了9.84%。实验结果表明,提出的关键区域以及二值化特征提取方法在降低了场景匹配计算时间的同时,提高了匹配精确度。
展开更多
关键词
快速场景匹配
关键区域提取
二值化特征
提取
下载PDF
职称材料
基于关键区域特征提取与二阶段分类网络的场景识别方法
2
作者
韩瀛昊
李菲菲
《电子科技》
2024年第7期25-32,共8页
在场景识别任务中,存在异类场景包含高相似度的物品种类或同类场景空间布局差异过大的情况,即场景的类间相似性与类内差异性。现有方法通过增强数据集或利用多层次的信息互补提高分类器的判别能力,尽管性能得到了一定提升,但仍存在局限...
在场景识别任务中,存在异类场景包含高相似度的物品种类或同类场景空间布局差异过大的情况,即场景的类间相似性与类内差异性。现有方法通过增强数据集或利用多层次的信息互补提高分类器的判别能力,尽管性能得到了一定提升,但仍存在局限性。文中提出了关键区域特征提取(Discriminative Patch Extraction,DPE)以及二阶段分类(Two-Stage Classification,TSC)网络的方法来克服场景的类间相似性与类内差异性。关键区域提取通过保留图像中的关键信息区域来避免类内差异性对场景识别的影响,而二阶段分类网络则通过粗细两个阶段的训练来避免类间相似性对场景识别的影响。文中方法结合ViT(Vision Transformer)等基线网络,在经典场景识别数据集Scene15、MITindoor67和SUN397上的分类精度分别达到了96.9%、88.4%以及76.0%。所提方法在最大规模的场景识别数据集Places365上取得了60.5%的最高分类精度。
展开更多
关键词
场景识别
深度神经网络
类间相似
类内差异
数据增强
关键
区域
特征
提取
二阶段分类
ViT
下载PDF
职称材料
基于盒注意力机制和Transformer的人脸微表情识别方法
3
作者
唐梦瑶
黄江涛
《人工智能科学与工程》
2023年第9期57-67,共11页
微表情是一种细微的能够体现人真实心理活动的面部运动,通常与真实情感直接相关,应用前景广阔。但由于微表情持续时间短暂、表情幅度低和特征难以提取等特点,因此其识别准确率较低。针对该问题,提出了基于盒注意力机制和Transformer的...
微表情是一种细微的能够体现人真实心理活动的面部运动,通常与真实情感直接相关,应用前景广阔。但由于微表情持续时间短暂、表情幅度低和特征难以提取等特点,因此其识别准确率较低。针对该问题,提出了基于盒注意力机制和Transformer的人脸微表情识别模型(visiontransformerbasedonbox-attention,ViT-Box)。该模型首先对人脸面部进行特征提取,利用盒注意力机制获得自适应的面部微表情关键区域:左眉眼、右眉眼和嘴巴;然后对非关键区域进行掩码遮盖,避免微表情无关信息干扰;最后基于VisionTransformer网络实现人脸微表情识别。ViT-Box模型在微宏表情仓库(MMEW)数据集上取得了98.68%的平均准确率,实验结果表明该模型在微表情识别上能够获得优秀的识别效果。同时通过消融实验验证了ViT-Box模型的有效性。
展开更多
关键词
微表情识别
盒注意力机制
目标检测
视觉Transformer
关键区域提取
人脸掩码
YOLOv5模型
多层感知机
下载PDF
职称材料
题名
基于关键区域的二值化场景特征快速提取方法
被引量:
3
1
作者
姚萌
贾克斌
萧允治
机构
北京工业大学信息学部
香港理工大学电子资讯工程学系
先进信息网络北京实验室
未来网络科技高精尖创新中心
出处
《计算机工程与应用》
CSCD
北大核心
2018年第6期14-18,61,共6页
基金
国家自然科学基金面上项目(No.61672064)
北京市自然科学基金重点项目(No.KZ201610005007)
文摘
近年来,驾驶辅助系统中基于视频信息的车辆定位技术受到广泛关注。针对轻轨系统高精度场景匹配中场景相似度过高导致定位困难的问题,提出了一种关键区域及二值化特征提取方法。该方法以离线处理的方式在高相似度的参考序列帧内提取具有显著性信息的关键区域,并在这些区域中生成二值化特征描述符以提高实时场景匹配的速度与准确率。在香港轻轨数据集以及公开的Nordland数据集中,相对于局部场景特征,基于提出的关键区域特征的场景匹配方法错误偏差下降31.43%,同时节约了94.22%的匹配时间;与Seq SLAM场景跟踪算法相比,在不显著增加运行时间的前提下,基于关键区域二值化场景特征的场景跟踪正确率提高了9.84%。实验结果表明,提出的关键区域以及二值化特征提取方法在降低了场景匹配计算时间的同时,提高了匹配精确度。
关键词
快速场景匹配
关键区域提取
二值化特征
提取
Keywords
fast scene matching
key region extraction
binary feature extraction
分类号
TP391.4 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
基于关键区域特征提取与二阶段分类网络的场景识别方法
2
作者
韩瀛昊
李菲菲
机构
上海理工大学光电信息与计算机工程学院
出处
《电子科技》
2024年第7期25-32,共8页
基金
上海市高校特聘教授(东方学者)岗位计划(ES2015XX)。
文摘
在场景识别任务中,存在异类场景包含高相似度的物品种类或同类场景空间布局差异过大的情况,即场景的类间相似性与类内差异性。现有方法通过增强数据集或利用多层次的信息互补提高分类器的判别能力,尽管性能得到了一定提升,但仍存在局限性。文中提出了关键区域特征提取(Discriminative Patch Extraction,DPE)以及二阶段分类(Two-Stage Classification,TSC)网络的方法来克服场景的类间相似性与类内差异性。关键区域提取通过保留图像中的关键信息区域来避免类内差异性对场景识别的影响,而二阶段分类网络则通过粗细两个阶段的训练来避免类间相似性对场景识别的影响。文中方法结合ViT(Vision Transformer)等基线网络,在经典场景识别数据集Scene15、MITindoor67和SUN397上的分类精度分别达到了96.9%、88.4%以及76.0%。所提方法在最大规模的场景识别数据集Places365上取得了60.5%的最高分类精度。
关键词
场景识别
深度神经网络
类间相似
类内差异
数据增强
关键
区域
特征
提取
二阶段分类
ViT
Keywords
scene recognition
deep neural networks
inter-class similarity
intra-class variability
data augmentation
discriminative patch extraction
two-stage classification
ViT
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
基于盒注意力机制和Transformer的人脸微表情识别方法
3
作者
唐梦瑶
黄江涛
机构
南宁师范大学计算机与信息工程学院
广西人机交互与智能决策重点实验室
出处
《人工智能科学与工程》
2023年第9期57-67,共11页
基金
国家自然科学基金项目(62067007)
广西重点研发计划项目(桂科AB21076009)。
文摘
微表情是一种细微的能够体现人真实心理活动的面部运动,通常与真实情感直接相关,应用前景广阔。但由于微表情持续时间短暂、表情幅度低和特征难以提取等特点,因此其识别准确率较低。针对该问题,提出了基于盒注意力机制和Transformer的人脸微表情识别模型(visiontransformerbasedonbox-attention,ViT-Box)。该模型首先对人脸面部进行特征提取,利用盒注意力机制获得自适应的面部微表情关键区域:左眉眼、右眉眼和嘴巴;然后对非关键区域进行掩码遮盖,避免微表情无关信息干扰;最后基于VisionTransformer网络实现人脸微表情识别。ViT-Box模型在微宏表情仓库(MMEW)数据集上取得了98.68%的平均准确率,实验结果表明该模型在微表情识别上能够获得优秀的识别效果。同时通过消融实验验证了ViT-Box模型的有效性。
关键词
微表情识别
盒注意力机制
目标检测
视觉Transformer
关键区域提取
人脸掩码
YOLOv5模型
多层感知机
Keywords
micro-expression recognition
Box-attention mechanism
object detection
vision transformer
key region extraction
face mask
YOLOv5 model
multilayer perceptron
分类号
TP399 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于关键区域的二值化场景特征快速提取方法
姚萌
贾克斌
萧允治
《计算机工程与应用》
CSCD
北大核心
2018
3
下载PDF
职称材料
2
基于关键区域特征提取与二阶段分类网络的场景识别方法
韩瀛昊
李菲菲
《电子科技》
2024
下载PDF
职称材料
3
基于盒注意力机制和Transformer的人脸微表情识别方法
唐梦瑶
黄江涛
《人工智能科学与工程》
2023
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部