期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
基于HarDNet全卷积网络的道路路面语义分割方法 被引量:3
1
作者 车满强 李树斌 李铭 《计算机应用》 CSCD 北大核心 2021年第S02期76-80,共5页
道路路面可行驶区域识别是无人驾驶环境感知的重要组成部分。针对计算资源有限的车载设备,设计了基于HarDNet全卷积网络的道路路面语义分割方法。首先,在U-Net语义分割框架中使用低内存消耗的HarDNet卷积神经网络结构提取卷积特征进行... 道路路面可行驶区域识别是无人驾驶环境感知的重要组成部分。针对计算资源有限的车载设备,设计了基于HarDNet全卷积网络的道路路面语义分割方法。首先,在U-Net语义分割框架中使用低内存消耗的HarDNet卷积神经网络结构提取卷积特征进行路面分割;其次,在模型训练时对图像标签进行权重增强,提升路面边缘分割精度;然后,针对国内道路特点,构建国内道路路面分割数据集;最后,使用基于像素的交叉熵函数和Softmax的损失函数,结合平移、形变、填充、灰度处理、"复制粘贴"的数据增强方法进行模型训练。在构造的国内道路数据集上进行算法测试,实验结果表明所提方法的平均交并比值为94.5,在AGX Xavier设备上运行速度为10.6帧/秒。在满足无人车计算力要求的前提下,尽可能提升了路面可行驶区域分割的精度。 展开更多
关键词 路面 深度学习 语义分割 HarDNet 边线拟合
下载PDF
引入多级匹配机制的多目标连续跟踪方法 被引量:1
2
作者 车满强 李铭 李圣京 《科学技术创新》 2022年第35期108-111,共4页
为提升基于检测的多目标跟踪方法在短暂遮挡时跟踪的准确度,首先提出一种目标多级匹配机制,将检测框根据置信度分为高分框和低分框,使用高分框和之前的跟踪轨迹进行第一级匹配,其次使用低分框和第一次没有匹配上高分框的跟踪轨迹进行第... 为提升基于检测的多目标跟踪方法在短暂遮挡时跟踪的准确度,首先提出一种目标多级匹配机制,将检测框根据置信度分为高分框和低分框,使用高分框和之前的跟踪轨迹进行第一级匹配,其次使用低分框和第一次没有匹配上高分框的跟踪轨迹进行第二级匹配,最后使用行人重识别的方法将未匹配到跟踪器和目标检测的结果进行第三级匹配,最终实现短暂遮挡下的连续跟踪。在MOT17数据集上进行验证,结果表明,所提方法 MOTA值达到76.9,可有效降低多目标跟踪ID切换,提升跟踪的连续性。 展开更多
关键词 深度学习 多目标跟踪 行人重识别 目标检测 多级匹配
下载PDF
基于改进关节点联系的ST-GCN行为识别办法
3
作者 李圣京 李树斌 《通信电源技术》 2021年第24期28-32,共5页
人体行为识别在监控安防等多个领域有重要的实用性。基于人体骨骼关节点的行为识别有很好的鲁棒性,并且在计算量和存储空间上都有很大的优势。时空图卷积神经网络(Spatial-Temporal Graph Convolution Networks,ST-GCN)模型开创图卷积... 人体行为识别在监控安防等多个领域有重要的实用性。基于人体骨骼关节点的行为识别有很好的鲁棒性,并且在计算量和存储空间上都有很大的优势。时空图卷积神经网络(Spatial-Temporal Graph Convolution Networks,ST-GCN)模型开创图卷积神经网络处理姿态估计信息的先河,针对ST-GCN不能很好关联所有关节特征的缺点,提出通过构建共现特征学习结构以及新的注意力机制加强关节点的联系,同时提出集成学习在线蒸馏手段,增强模型的泛化能力。所提模型在Kinetics-skeleton数据集上取得31.25%的Top-1精度,相比于ST-GCN算法提升了0.44%;在NTU-RGB+D的X-Sub子数据集与X-View子数据集分别取得86.7%与94.6%的Top-1精度,对比ST-GCN算法提升了5.2%和6.3%。 展开更多
关键词 行为识别 姿态估计 时空图卷积神经网络 注意力机制 蒸馏学习 集成学习
下载PDF
多模型融合的孪生网络视觉跟踪 被引量:1
4
作者 车满强 李树斌 葛金鹏 《激光与光电子学进展》 CSCD 北大核心 2021年第4期341-348,共8页
为提升孪生网络视觉跟踪算法的准确性,提出一种融合多任务差异化同质型模型的孪生网络视觉跟踪算法。首先在决策层对孪生网络视觉跟踪模型与目标分割模型进行融合,然后结合多尺度搜索区域、目标上下文特征、多学习率模型更新策略进行跟... 为提升孪生网络视觉跟踪算法的准确性,提出一种融合多任务差异化同质型模型的孪生网络视觉跟踪算法。首先在决策层对孪生网络视觉跟踪模型与目标分割模型进行融合,然后结合多尺度搜索区域、目标上下文特征、多学习率模型更新策略进行跟踪。在标准数据集VOT、OTB、LaSOT、UAV123上进行算法评估。实验结果表明,所提算法在遮挡、快速运动、光照变化等干扰下可以稳定跟踪目标。 展开更多
关键词 机器视觉 视觉跟踪 孪生网络 模型融合 上下文特征 多学习率
原文传递
卷积通道裁剪与加权融合的精定位视觉跟踪
5
作者 车满强 李树斌 葛金鹏 《激光与光电子学进展》 CSCD 北大核心 2020年第16期324-331,共8页
为提高卷积相关滤波算法的速度和精度,提出一种基于通道裁剪与加权融合的跟踪算法。该算法选取适合目标跟踪的单层卷积特征,通过特征均值比裁剪无效卷积通道,再融合一维灰度特征,提升了特征的表征能力。然后以特征均值比为卷积通道权重... 为提高卷积相关滤波算法的速度和精度,提出一种基于通道裁剪与加权融合的跟踪算法。该算法选取适合目标跟踪的单层卷积特征,通过特征均值比裁剪无效卷积通道,再融合一维灰度特征,提升了特征的表征能力。然后以特征均值比为卷积通道权重构造加权相关滤波算法,预测目标位置,并用帧差均值最小化精定位方法减小预测位置误差;最后通过更新跟踪模型,以进一步提高算法速度。在标准数据集OTB-100上对算法进行测试。结果表明,所提算法的平均距离精度为91.3%,平均速度为31.8frame/s。所提算法可有效提高目标跟踪的速度和精度,在目标遇到遮挡、尺度变化、快速运动及形变时仍可有效跟踪目标。 展开更多
关键词 机器视觉 视觉跟踪 相关滤波 通道裁剪 通道加权 目标精定位 稀疏更新
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部