为了在战场上更好地发挥双基地雷达的定位性能,比较双基地雷达常用的距离和-角度法与角度-角度法两种方法的定位性能的优劣,分析和仿真了以上两种方法显性解的测量精度受测量值的影响情况;分析其解析几何模型的定位误差,并仿真了目标位...为了在战场上更好地发挥双基地雷达的定位性能,比较双基地雷达常用的距离和-角度法与角度-角度法两种方法的定位性能的优劣,分析和仿真了以上两种方法显性解的测量精度受测量值的影响情况;分析其解析几何模型的定位误差,并仿真了目标位置的精密度的几何逼近法GDOP(Geometric Dilution of Precision)分布.结果表明,基线附近两种方法定位误差都较大;当目标到收发站距离大于20km时,距离和-角度法的定位精度要好于角度-角度法.展开更多
针对步态识别在反恐、安防领域亟待解决的小样本问题,提出了一种基于深度卷积神经网络(convolutional and neural network,CNN)和DLTL(dual learning and transfer learning)的步态虚拟样本生成方法。首先用基于VGG19的深度卷积神经网...针对步态识别在反恐、安防领域亟待解决的小样本问题,提出了一种基于深度卷积神经网络(convolutional and neural network,CNN)和DLTL(dual learning and transfer learning)的步态虚拟样本生成方法。首先用基于VGG19的深度卷积神经网络模型低层响应提取步态风格特征图,然后利用基于对抗网络的对偶学习(dual learning,DL)对风格特征图进行风格训练,得到风格特征模型;其次利用VGG19模型的高层响应提取步态内容特征图,然后让步态内容特征图对风格特征模型中的风格特征进行学习;最后使用迁移学习(transfer learning,TL)获得步态虚拟偏移样本。实验结果表明,经过DLTL风格学习生成的步态虚拟样本虽然整体风格发生改变,但人体步态特征没有改变,可有效扩充小样本容量;当虚拟样本增加到一定数量时,步态识别率有所提升。该方法与现有步态虚拟样本生成方法进行对比实验,结果表明该算法优于现有方法,能够大量生成虚拟样本且稳定提高步态识别的识别率。展开更多
目的针对反恐、安防领域利用监控视频进行步态识别时由光照、拍摄角度、遮挡等多协变量引起的轮廓缺失、人体阴影和运算时间等问题,提出了一种基于RPGNet (Regin of Interest+Parts of Body Semantics+Gait Net)网络的步态人体语义分割...目的针对反恐、安防领域利用监控视频进行步态识别时由光照、拍摄角度、遮挡等多协变量引起的轮廓缺失、人体阴影和运算时间等问题,提出了一种基于RPGNet (Regin of Interest+Parts of Body Semantics+Gait Net)网络的步态人体语义分割方法。方法该方法按照功能划分为R(region of interest)模块、P (parts of body semantics)模块和GNet (Gait Net)模块。R模块提取人体步态感兴趣区域,起到提升算法效率和图像去噪的作用。P模块借助Label Me开源图像注释工具进行步态人体部位语义标注。GNet模块进行步态人体部位语义训练与分割。借鉴Res Net和Refine Net网络模型,设计了一种细节性步态语义分割网络模型。结果对步态数据库1 380张图片进行了测试,RPGNet方法与6种人体轮廓分割方法进行了对比实验,实验结果表明RPGNet方法对细节和全局信息处理得都很精确,在0°、45°和90°视角都表现出较高的分割正确率。在多人、戴帽和遮挡条件下,实验结果表明RPGNet方法人体分割效果良好,能够满足步态识别过程中的实时性要求。结论实验结果表明,RPGNet步态人体语义分割方法在多协变量情况下能够有效进行步态人体语义分割,同时也有效提高了步态识别的识别率。展开更多
文摘为了在战场上更好地发挥双基地雷达的定位性能,比较双基地雷达常用的距离和-角度法与角度-角度法两种方法的定位性能的优劣,分析和仿真了以上两种方法显性解的测量精度受测量值的影响情况;分析其解析几何模型的定位误差,并仿真了目标位置的精密度的几何逼近法GDOP(Geometric Dilution of Precision)分布.结果表明,基线附近两种方法定位误差都较大;当目标到收发站距离大于20km时,距离和-角度法的定位精度要好于角度-角度法.
文摘针对步态识别在反恐、安防领域亟待解决的小样本问题,提出了一种基于深度卷积神经网络(convolutional and neural network,CNN)和DLTL(dual learning and transfer learning)的步态虚拟样本生成方法。首先用基于VGG19的深度卷积神经网络模型低层响应提取步态风格特征图,然后利用基于对抗网络的对偶学习(dual learning,DL)对风格特征图进行风格训练,得到风格特征模型;其次利用VGG19模型的高层响应提取步态内容特征图,然后让步态内容特征图对风格特征模型中的风格特征进行学习;最后使用迁移学习(transfer learning,TL)获得步态虚拟偏移样本。实验结果表明,经过DLTL风格学习生成的步态虚拟样本虽然整体风格发生改变,但人体步态特征没有改变,可有效扩充小样本容量;当虚拟样本增加到一定数量时,步态识别率有所提升。该方法与现有步态虚拟样本生成方法进行对比实验,结果表明该算法优于现有方法,能够大量生成虚拟样本且稳定提高步态识别的识别率。
文摘目的针对反恐、安防领域利用监控视频进行步态识别时由光照、拍摄角度、遮挡等多协变量引起的轮廓缺失、人体阴影和运算时间等问题,提出了一种基于RPGNet (Regin of Interest+Parts of Body Semantics+Gait Net)网络的步态人体语义分割方法。方法该方法按照功能划分为R(region of interest)模块、P (parts of body semantics)模块和GNet (Gait Net)模块。R模块提取人体步态感兴趣区域,起到提升算法效率和图像去噪的作用。P模块借助Label Me开源图像注释工具进行步态人体部位语义标注。GNet模块进行步态人体部位语义训练与分割。借鉴Res Net和Refine Net网络模型,设计了一种细节性步态语义分割网络模型。结果对步态数据库1 380张图片进行了测试,RPGNet方法与6种人体轮廓分割方法进行了对比实验,实验结果表明RPGNet方法对细节和全局信息处理得都很精确,在0°、45°和90°视角都表现出较高的分割正确率。在多人、戴帽和遮挡条件下,实验结果表明RPGNet方法人体分割效果良好,能够满足步态识别过程中的实时性要求。结论实验结果表明,RPGNet步态人体语义分割方法在多协变量情况下能够有效进行步态人体语义分割,同时也有效提高了步态识别的识别率。