期刊文献+
共找到13篇文章
< 1 >
每页显示 20 50 100
基于改进DeepLabv3+的无人车夜间红外图像语义分割 被引量:11
1
作者 刘致驿 孙韶媛 +2 位作者 任正云 刘训华 卜德飞 《应用光学》 CAS CSCD 北大核心 2020年第1期180-185,共6页
为了增强无人车对夜间场景的理解能力,针对无人车在夜间获取的红外图像,提出了一种基于改进DeepLabv3+网络的无人车夜间红外图像语义分割算法。由于自动驾驶场景中的对象往往显示出非常大的尺度变化,该算法在DeepLabv3+网络的基础上,通... 为了增强无人车对夜间场景的理解能力,针对无人车在夜间获取的红外图像,提出了一种基于改进DeepLabv3+网络的无人车夜间红外图像语义分割算法。由于自动驾驶场景中的对象往往显示出非常大的尺度变化,该算法在DeepLabv3+网络的基础上,通过引入密集连接的空洞卷积空间金字塔模块,使网络生成的多尺度特征能覆盖更大的尺度范围。此外,该算法将编码器模块的多层结果拼接在译码器模块中,以恢复更多在降采样过程中丢失的空间信息和低级特征。通过端到端的学习和训练,可直接用于对夜间红外图像的语义分割。实验结果表明,该算法在红外数据集上的分割精度优于原DeepLabv3+算法,平均交并比达到80.42,具有良好的实时性和准确性。 展开更多
关键词 深度学习 语义分割 无人车 红外图像
下载PDF
基于改进YOLOv3网络的无人车夜间环境感知 被引量:12
2
作者 裴嘉欣 孙韶媛 +2 位作者 王宇岚 李大威 黄荣 《应用光学》 CAS CSCD 北大核心 2019年第3期380-386,共7页
环境感知是无人车夜间行驶中的一项关键任务,提出一种改进的YOLOv3网络,以实现夜间对无人车获取的红外图像中行人、车辆的检测,将判断周边车辆的行驶方向问题转化为预测车辆位置的角度大小问题,并与深度估计信息进行融合对周边车辆行驶... 环境感知是无人车夜间行驶中的一项关键任务,提出一种改进的YOLOv3网络,以实现夜间对无人车获取的红外图像中行人、车辆的检测,将判断周边车辆的行驶方向问题转化为预测车辆位置的角度大小问题,并与深度估计信息进行融合对周边车辆行驶的距离和速度作出判断,从而实现夜间无人车对周边车辆行驶意图的感知。该网络具有端到端的优点,能实现整张图像作为网络的输入,直接在输出层回归检测目标的边界框位置、所属的类别和车辆的角度预测结果,并和深度估计信息融合得到周边车辆的距离和速度信息。实验结果表明,使用改进的YOLOv3网络对夜间无人车获取的红外图像进行目标检测的时间为0.04 s/帧,角度和速度预测效果较好,准确性和实时性达到了实际应用要求。 展开更多
关键词 红外图像 目标检测 YOLOv3网络 角度预测 深度估计
下载PDF
基于多视角融合的夜间无人车三维目标检测 被引量:7
3
作者 王宇岚 孙韶媛 +1 位作者 刘致驿 卜德飞 《应用光学》 CAS CSCD 北大核心 2020年第2期296-301,共6页
为了提高无人车在夜间情况下对周围环境的物体识别能力,提出一种基于多视角通道融合网络的无人车夜间三维目标检测方法。引入多传感器融合的思想,在红外图像的基础上加入激光雷达点云进行目标检测。通过对激光雷达点云进行编码变换成鸟... 为了提高无人车在夜间情况下对周围环境的物体识别能力,提出一种基于多视角通道融合网络的无人车夜间三维目标检测方法。引入多传感器融合的思想,在红外图像的基础上加入激光雷达点云进行目标检测。通过对激光雷达点云进行编码变换成鸟瞰图形式和前视图形式,与红外图像组成多视角通道,各通道信息之间融合互补,从而提高夜间无人车对周围物体的识别能力。该网络将红外图像与激光雷达点云作为网络的输入,网络通过特征提取层、候选区域层和通道融合层准确地回归检测出目标的位置以及所属的类别。实验结果表明,该方法能够提高无人车在夜间的物体识别能力,在实验室的测试数据中准确率达到90%,速度0.43 s/帧,达到了实际应用要求。 展开更多
关键词 红外图像 激光雷达点云 多视角通道 三维目标检测
下载PDF
基于时空双流卷积神经网络的红外行为识别 被引量:3
4
作者 吴雪平 孙韶媛 +1 位作者 李佳豪 李大威 《应用光学》 CAS CSCD 北大核心 2018年第5期743-750,共8页
针对红外视频人体行为识别问题,提出了一种基于时空双流卷积神经网络的红外人体行为识别方法。通过将整个红外视频进行平均分段,然后将每一段视频中随机抽取的红外图像和对应的光流图像输入空间卷积神经网络,空间卷积神经网络通过融合... 针对红外视频人体行为识别问题,提出了一种基于时空双流卷积神经网络的红外人体行为识别方法。通过将整个红外视频进行平均分段,然后将每一段视频中随机抽取的红外图像和对应的光流图像输入空间卷积神经网络,空间卷积神经网络通过融合光流信息可以有效地学习到红外图像中真正发生运动的空间信息,再将每一小段的识别结果进行融合得到空间网络结果。同时将每一段视频中随机抽取的光流图像序列输入时间卷积神经网络,融合每一小段的结果后得到时间网络结果。最后再将空间网络结果和时间网络结果进行加权求和,从而得到最终的视频分类结果。实验中,采用此方法对包含23种红外行为动作类别的红外视频数据集上的动作进行识别,正确识别率为92.0%。结果表明,该算法可以有效地对红外视频行为进行准确识别。 展开更多
关键词 人体行为识别 卷积神经网络 信息融合 红外视频 视频分段
下载PDF
基于改进SSD的无人驾驶夜间目标检测 被引量:2
5
作者 卜德飞 孙韶媛 +2 位作者 黄荣 王宇岚 刘致驿 《东华大学学报(自然科学版)》 CAS 北大核心 2021年第1期63-69,共7页
为提高SSD(single shot multibox detector)网络在夜间无人驾驶的目标检测性能,对SSD网络进行了改进:特征提取网络使用稠密连接卷积网络(Densenet)得到表征能力更强的特征图;卷积过程中进行特征图重利用,从而增加中小目标的信息;加入反... 为提高SSD(single shot multibox detector)网络在夜间无人驾驶的目标检测性能,对SSD网络进行了改进:特征提取网络使用稠密连接卷积网络(Densenet)得到表征能力更强的特征图;卷积过程中进行特征图重利用,从而增加中小目标的信息;加入反卷积网络丰富特征图语义信息。试验的训练方法采用无预训练模型的训练方式,这种训练方式能够更好地拟合数据集的特性。试验结果表明,改进的SSD网络的目标检测准确率高于原SSD网络,并且优于其他主流网络。 展开更多
关键词 红外图像 目标检测 SSD网络 反卷积
下载PDF
基于视角转换的多视角步态识别方法 被引量:1
6
作者 瞿斌杰 孙韶媛 +1 位作者 Samah A.F.Manssor 赵国顺 《计算机工程》 CAS CSCD 北大核心 2021年第6期210-216,共7页
针对步态识别中步态视角变化、步态数据样本量少及较少利用步态时间信息等问题,提出一种基于视角转换的步态识别方法。通过VTM-GAN网络,将不同视角下的步态能量图及含有步态时间信息的彩色步态能量图,统一映射到保留步态信息最丰富的侧... 针对步态识别中步态视角变化、步态数据样本量少及较少利用步态时间信息等问题,提出一种基于视角转换的步态识别方法。通过VTM-GAN网络,将不同视角下的步态能量图及含有步态时间信息的彩色步态能量图,统一映射到保留步态信息最丰富的侧视图视角,以此突破步态识别中多视角的限制,在视角转换的基础上,通过构建侧视图下的步态正负样本对来扩充用于网络训练的数据,并采用基于距离度量的时空双流卷积神经网络作为步态识别网络。在CASIA-B数据集上的实验结果表明,该方法在各状态、各角度下的平均识别准确率达到92.5%,优于3DCNN、SST-MSCI等步态识别方法。 展开更多
关键词 步态识别 视角转换 VTM-GAN网络 时空双流卷积神经网络 CASIA-B数据集
下载PDF
基于深度学习的夜间模式下自动驾驶场景预测 被引量:1
7
作者 阮雨 孙韶媛 +1 位作者 李佳豪 吴雪平 《东华大学学报(自然科学版)》 CAS 北大核心 2019年第5期709-714,共6页
为了增强自动驾驶汽车在夜间行驶时对周围场景的理解,以便汽车或驾驶员可以及时做出相应的调整,将深度学习应用于夜视图像的场景预测。采用了一种预测编码网络来预测夜视图像的场景变化,在传统的深度卷积循环神经网络的基础上,对网络结... 为了增强自动驾驶汽车在夜间行驶时对周围场景的理解,以便汽车或驾驶员可以及时做出相应的调整,将深度学习应用于夜视图像的场景预测。采用了一种预测编码网络来预测夜视图像的场景变化,在传统的深度卷积循环神经网络的基础上,对网络结构进行了一定的调整,将预测图像与实际图像的误差在网络中进行前向传递,不断更新预测误差来调整预测结果。试验结果表明,训练得到的场景预测模型,可以预测夜间驾驶场景0.4 s后的合理未来,且改善了对于长时间预测任务中效果不好的问题,具有良好的准确性和实时性。 展开更多
关键词 自动驾驶 深度学习 夜视图像 场景预测 预测编码网络
下载PDF
基于ConvLSTM双通道编码网络的夜间无人车场景预测
8
作者 李想 孙韶媛 +1 位作者 刘训华 顾立鹏 《红外技术》 CSCD 北大核心 2020年第8期789-794,共6页
为了提高夜间无人车驾驶的决策速度,减少夜间交通事故发生的概率,对无人驾驶场景预测任务进行了研究。提出了基于卷积长短时记忆的双通道编码夜间无人车场景预测网络,利用两个子网络:时间子网络提取红外视频序列的时序特征,空间子网络... 为了提高夜间无人车驾驶的决策速度,减少夜间交通事故发生的概率,对无人驾驶场景预测任务进行了研究。提出了基于卷积长短时记忆的双通道编码夜间无人车场景预测网络,利用两个子网络:时间子网络提取红外视频序列的时序特征,空间子网络提取红外图像的空间特征,通过融合网络融合特征,输入到解码网络中,以实现对红外视频的未来帧预测。该网络具有端到端的优点,能够实现输入视频序列,直接输出预测帧的图像,并可以预测多帧图像。实验结果表明,该网络对夜间场景预测较准确,可以预测未来1.2 s后的图像,预测速度快,为0.02 s/帧,达到了实时性要求。 展开更多
关键词 红外图像 场景预测 卷积长短时记忆 编码网络
下载PDF
Intelligent Control Method for the Secondary Cooling of Continuous Casting
9
作者 sun shaoyuan LI Shiping WANG Junran (Information Engineering Shool, UST B, Beijing 100083, China) 《International Journal of Minerals,Metallurgy and Materials》 SCIE EI CAS CSCD 1997年第2期46-46,共1页
An intelligent control plan for the secondary cooling of continuous casting of slab was put forward. An off-line simulation of the system by using neural networks combined with fuzzy logic control is provided. The res... An intelligent control plan for the secondary cooling of continuous casting of slab was put forward. An off-line simulation of the system by using neural networks combined with fuzzy logic control is provided. The results show that the intelligent control system can not only control the surface temperature of the bloom of the secondary cooling but also has a good ability of self-adaptation and self-learning. 展开更多
关键词 continuous casting artificial neural networks fuzzy control
下载PDF
Gait Recognition System in Thermal Infrared Night Imaging by Using Deep Convolutional Neural Networks
10
作者 MANSSOR Samah A F sun shaoyuan +1 位作者 ZHAO Guoshun QU Binjie 《Journal of Donghua University(English Edition)》 CAS 2021年第6期527-538,共12页
Gait is an essential biomedical feature that distinguishes individuals through walking.This feature automatically stimulates the need for remote human recognition in security-sensitive visual monitoring applications.H... Gait is an essential biomedical feature that distinguishes individuals through walking.This feature automatically stimulates the need for remote human recognition in security-sensitive visual monitoring applications.However,there is still a lack of sufficient accuracy of gait recognition at night,in addition to taking some critical factors that affect the performances of the recognition algorithm.Therefore,a novel approach is proposed to automatically identify individuals from thermal infrared(TIR)images according to their gaits captured at night.This approach uses a new night gait network(NGaitNet)based on similarity deep convolutional neural networks(CNNs)method to enhance gait recognition at night.First,the TIR image is represented via personal movements and enhanced body skeleton segments.Then,the state-space method with a Hough transform is used to extract gait features to obtain skeletal joints′angles.These features are trained to identify the most discriminating gait patterns that indicate a change in human identity.To verify the proposed method,the experimental results are performed by using learning and validation curves via being connected by the Visdom website.The proposed thermal infrared imaging night gait recognition(TIRNGaitNet)approach has achieved the highest gait recognition accuracy rates(99.5%,97.0%),especially under normal walking conditions on the Chinese Academy of Sciences Institute of Automation infrared night gait dataset(CASIA C)and Donghua University thermal infrared night gait database(DHU night gait dataset).On the same dataset,the results of the TIRNGaitNet approach provide the record scores of(98.0%,87.0%)under the slow walking condition and(94.0%,86.0%)for the quick walking condition. 展开更多
关键词 gait recognition thermal infrared(TIR)image SILHOUETTE feature extraction convolutional neural network(CNN)
下载PDF
基于改进Frustum PointNet的3D目标检测 被引量:5
11
作者 刘训华 孙韶媛 +1 位作者 顾立鹏 李想 《激光与光电子学进展》 CSCD 北大核心 2020年第20期320-326,共7页
提出对图像和激光雷达点云数据进行3D目标检测的改进F-PointNet(Frustum PointNet)。首先利用图像的2D目标检测模型提取目标2D区域,并将其映射到点云数据中,得到该目标的点云候选区域,然后预测候选区域的3D目标掩模,最后利用掩模对3D目... 提出对图像和激光雷达点云数据进行3D目标检测的改进F-PointNet(Frustum PointNet)。首先利用图像的2D目标检测模型提取目标2D区域,并将其映射到点云数据中,得到该目标的点云候选区域,然后预测候选区域的3D目标掩模,最后利用掩模对3D目标进行检测。当预测掩模时,提出的宽阈值掩模处理可以用来减少原始网络的信息损失;增加注意力机制可以获取需要被关注的点和通道层;使用Focal Loss可以解决目标与背景不平衡的问题。通过多次对比实验,证明宽阈值掩模处理可以提高3D目标检测的准确率,同时注意力机制和Focal Loss可以提高预测的准确率。 展开更多
关键词 机器视觉 激光雷达 点云数据 3D目标检测 宽阈值掩模处理
原文传递
基于双通道循环生成对抗网络的无人车夜视红外视频彩色化 被引量:2
12
作者 李佳豪 孙韶媛 +1 位作者 吴雪平 李大威 《激光与光电子学进展》 CSCD 北大核心 2018年第9期319-325,共7页
在无人车夜视红外视频彩色化问题中,考虑到可同时利用单帧图像的信息和视频的帧间信息,提出了一种双通道循环生成对抗网络(DcCCAN)对夜视红外视频进行彩色化。DcCCAN是在循环一致生成对抗网络(CCAN)的基础上提出的双通道生成网络。双通... 在无人车夜视红外视频彩色化问题中,考虑到可同时利用单帧图像的信息和视频的帧间信息,提出了一种双通道循环生成对抗网络(DcCCAN)对夜视红外视频进行彩色化。DcCCAN是在循环一致生成对抗网络(CCAN)的基础上提出的双通道生成网络。双通道生成网络具有良好的图像特征提取能力,能够自动提取视频中待处理图像的特征,同时提取先前模型所生成图像的特征,然后将特征信息整合后生成一幅目标图像。通过在生成对抗性训练中引入循环一致性训练机制,可无监督地学习得到红外域图像到彩色域图像的映射关系,从而实现红外视频的彩色化。实验表明该方法能够为视频中的红外图像赋予自然的色彩信息和纹理信息,且满足实时性要求。 展开更多
关键词 机器视觉 红外视频彩色化 双通道循环生成对抗网络 双通道生成网络
原文传递
Model-guided measurement-side control for quantized block compressive sensing
13
作者 Tang Hainie Liu Hao +2 位作者 Huang Rong Deng Kailian sun shaoyuan 《The Journal of China Universities of Posts and Telecommunications》 EI CSCD 2019年第2期82-90,共9页
To progressively provide the competitive rate-distortion performance for aerial imagery,a quantized block compressive sensing(QBCS) framework is presented,which incorporates two measurement-side control parameters:mea... To progressively provide the competitive rate-distortion performance for aerial imagery,a quantized block compressive sensing(QBCS) framework is presented,which incorporates two measurement-side control parameters:measurement subrate(S) and quantization depth(D).By learning how different parameter combinations may affect the quality-bitrate characteristics of aerial images,two parameter allocation models are derived between a bitrate budget and its appropriate parameters.Based on the corresponding allocation models,a model-guided image coding method is proposed to pre-determine the appropriate(S,D) combination for acquiring an aerial image via QBCS.The data-driven experimental results show that the proposed method can achieve near-optimal quality-bitrate performance under the QBCS framework. 展开更多
关键词 BLOCK COMPRESSIVE sensing (BCS) MEASUREMENT subrate quantization depth quality-bitrate AERIAL image
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部