期刊文献+
共找到207篇文章
< 1 2 11 >
每页显示 20 50 100
Efficient Vision Transformers for Autonomous Off-Road Perception Systems
1
作者 Max H. Faykus III Adam Pickeral +2 位作者 Ethan Marquez Melissa C. Smith Jon C. Calhoun 《Journal of Computer and Communications》 2024年第9期188-207,共20页
The development of autonomous vehicles has become one of the greatest research endeavors in recent years. These vehicles rely on many complex systems working in tandem to make decisions. For practical use and safety r... The development of autonomous vehicles has become one of the greatest research endeavors in recent years. These vehicles rely on many complex systems working in tandem to make decisions. For practical use and safety reasons, these systems must not only be accurate, but also quickly detect changes in the surrounding environment. In autonomous vehicle research, the environment perception system is one of the key components of development. Environment perception systems allow the vehicle to understand its surroundings. This is done by using cameras, light detection and ranging (LiDAR), with other sensor systems and modalities. Deep learning computer vision algorithms have been shown to be the strongest tool for translating camera data into accurate and safe traversability decisions regarding the environment surrounding a vehicle. In order for a vehicle to safely traverse an area in real time, these computer vision algorithms must be accurate and have low latency. While much research has studied autonomous driving for traversing well-structured urban environments, limited research exists evaluating perception system improvements in off-road settings. This research aims to investigate the adaptability of several existing deep-learning architectures for semantic segmentation in off-road environments. Previous studies of two Convolutional Neural Network (CNN) architectures are included for comparison with new evaluation of Vision Transformer (ViT) architectures for semantic segmentation. Our results demonstrate viability of ViT architectures for off-road perception systems, having a strong segmentation accuracy, lower inference speed and memory footprint compared to previous results with CNN architectures. 展开更多
关键词 Semantic Segmentation Off-Road vision TRANSFORMERS CNNS Autonomous Driving
下载PDF
面向自动驾驶场景的脉冲视觉研究 被引量:1
2
作者 张济远 郑雅菁 +1 位作者 余肇飞 黄铁军 《中国工程科学》 CSCD 北大核心 2024年第1期160-177,共18页
自动驾驶是计算机视觉重要的研究方向,具有广阔的应用前景。纯视觉感知方案在自动驾驶场景中具有重要的研究价值。不同于传统相机,脉冲视觉传感器能更加灵敏地感受光子,具备比传统视频快千倍以上的成像速度,具有高时间分辨率、高动态范... 自动驾驶是计算机视觉重要的研究方向,具有广阔的应用前景。纯视觉感知方案在自动驾驶场景中具有重要的研究价值。不同于传统相机,脉冲视觉传感器能更加灵敏地感受光子,具备比传统视频快千倍以上的成像速度,具有高时间分辨率、高动态范围、低数据冗余和低功耗等优势。本文面向自动驾驶场景,总结了脉冲相机的成像原理、感知能力与优势;围绕自动驾驶相关视觉任务,详细介绍了脉冲视觉影像重建原理与方法,讨论了基于传感器融合的影像增强技术路线;归纳总结了基于脉冲相机的运动光流估计、目标识别检测分割与跟踪,以及三维场景深度估计算法进展及技术路线;梳理了脉冲相机数据及感知系统的发展现状,分析了脉冲视觉的研究挑战;研究提出了潜在解决方案及未来研究方向。脉冲相机及其算法和系统在自动驾驶领域具有巨大潜力,是未来计算机视觉的主要研究方向之一。 展开更多
关键词 脉冲视觉 脉冲相机 自动驾驶 人工智能
下载PDF
改进扩展Kalman滤波的显微视觉压电驱动定位
3
作者 杨柳 何贺 +1 位作者 程佳佳 李东洁 《光学精密工程》 EI CAS CSCD 北大核心 2024年第12期1868-1878,共11页
在显微视觉领域,压电驱动定位技术因其在微观尺度的高精度特性和灵活性备受关注。然而,由于定位过程中涉及图像处理、传输和控制等方面的时延,导致图像雅可比矩阵的估计会出现较大误差。因此,本文提出了一种改进扩展Kalman滤波算法用来... 在显微视觉领域,压电驱动定位技术因其在微观尺度的高精度特性和灵活性备受关注。然而,由于定位过程中涉及图像处理、传输和控制等方面的时延,导致图像雅可比矩阵的估计会出现较大误差。因此,本文提出了一种改进扩展Kalman滤波算法用来预测图像雅可比矩阵,大幅度降低时间延迟因素。首先,将辨识得到的Bouc-Wen模型与扩展Kalman滤波算法的状态观测方程相结合,使得状态观测方程更全面地考虑压电平台的迟滞非线性特性,有效地提高了对压电平台速度和位置的预测;其次,结合Bouc-Wen模型的扩展Kalman滤波算法在面对非线性问题时,采用的是泰勒级数,这将导致扩展Kalman滤波算法对高度非线性的函数无法提供良好的近似,从而导致在估计雅可比矩阵的时候引入较大的近似误差,故本文将采用神经网络对高度非线性函数进行近似,进而对图像雅可比矩阵进行估计。最后,通过搭建一个显微视觉的压电驱动实验平台,进行位置跟踪实验,仿真实验表明,输入信号分别为正弦信号和三角波信号时,改进扩展Kalman滤波算法跟踪误差均值分别为0.199μm和0.132μm,而扩展Kalman滤波算法的跟踪误差均值分别为0.692μm和0.513μm,结果验证了改进算法的优越性和可行性。 展开更多
关键词 扩展Kalman滤波 高度非线性方程 图像雅可比矩阵 显微视觉 压电驱动
下载PDF
煤矿井下单轨吊无人驾驶目标识别算法与轨道接缝检测方法
4
作者 王茂森 鲍久圣 +5 位作者 章全利 杨阳 袁晓明 阴妍 张可琨 葛世荣 《煤炭学报》 EI CAS CSCD 北大核心 2024年第S01期457-471,共15页
单轨吊作为煤矿井下辅助运输的重要设备形式之一,具有运载能力大、爬坡能力强等优点,在煤矿智能化建设背景下无人驾驶是其必然的发展方向。为确保无人驾驶单轨吊在井下巷道内的安全行驶,对轨道接缝和关键目标的可靠检测尤为重要,从提高... 单轨吊作为煤矿井下辅助运输的重要设备形式之一,具有运载能力大、爬坡能力强等优点,在煤矿智能化建设背景下无人驾驶是其必然的发展方向。为确保无人驾驶单轨吊在井下巷道内的安全行驶,对轨道接缝和关键目标的可靠检测尤为重要,从提高单轨吊无人驾驶安全通过性出发,对单轨吊无人驾驶目标识别算法与轨道接缝检测方法两大主要方面展开了研究。首先,对矿井图片数据集进行了增强处理,提高了其多样性;提出了一种加入改进通道注意力机制ECA_s和EIOU回归损失函数的YOLOv5算法,并对改进后的YOLOv5算法进行试验分析,结果表明,采用改进后的YOLOv5算法,识别准确率提高了9.1%,mAP提升了3.6%。其次,建立了基于机器视觉的单轨吊轨道接缝检测方法,采用图像预处理、直方图信息统计、形态学处理等技术,根据标定系数计算轨道接缝距离,结果表明,基于机器视觉的轨道接缝检测算法处理一张接缝图像的检测误差仅为0.3 mm。最后,开展了单轨吊无人驾驶目标检测试验,结果表明,改进后的YOLOv5目标检测算法平均精度达到90.3%,具有更高的检测准确率;单轨吊轨道接缝检测算法处理接缝图像的平均检测误差为0.73 mm、最大检测误差不超过1.1 mm,具有更高的检测精度。为保障煤矿井下单轨吊无人驾驶安全通过性和可靠性,提供了务实可行的检测方案和精确可靠的检测算法。 展开更多
关键词 单轨吊 无人驾驶 机器视觉 目标检测 YOLOv5 接缝检测
下载PDF
基于视觉指标的雾天高速公路限速值 被引量:1
5
作者 何富勇 杨雅钧 +2 位作者 张驰 王世法 肖锋 《公路交通科技》 CAS CSCD 北大核心 2024年第7期194-206,共13页
为解决雾天高速公路能见度降低和驾驶人视距受限的交通安全问题,提出了一种基于驾驶人视觉指标的限速控制方法。首先,对雾天高速公路行驶速度与驾驶人视觉的变化进行了分析,并确定了能综合表征路况信息和能见度水平的视觉指标;其次,通过... 为解决雾天高速公路能见度降低和驾驶人视距受限的交通安全问题,提出了一种基于驾驶人视觉指标的限速控制方法。首先,对雾天高速公路行驶速度与驾驶人视觉的变化进行了分析,并确定了能综合表征路况信息和能见度水平的视觉指标;其次,通过UC-win/Road模拟了不同能见度下的驾驶环境,并收集了视觉指标和运行速度数据,进一步分析了雾天视觉指标的影响因素;然后,使用SPSS构建了运行速度和视觉指标间的数学模型,根据能见度与视觉指标间的线性关系提出了不同能见度下的视觉指标参考值;最后,基于能见度、交通流量、视觉指标3个因素,提出了一种考虑视觉指标的多条件限速控制标准。结果表明:在能见度低于200 m的环境下,视觉指标明显低于无雾环境下的视觉指标,降低范围在0.578%~1.407%之间;视觉指标与运行速度两变量间的相关系数达到0.863,这说明雾天能见度降低和视觉指标下降对行驶速度有显著影响;预测运行速度与实测速度的相对误差平均值为2.43%,满足预测精度要求。综上所述,本研究提出的限速控制方法同时考虑了能见度、交通流量和驾驶人视觉,对于保障雾天高速公路的安全行驶具有重要的实用价值。 展开更多
关键词 交通工程 车速限制 驾驶仿真 雾天行车 驾驶人视觉
下载PDF
互通立交合流区驾驶人视觉特性以及加速车道形式影响研究
6
作者 李涛 王思棋 +2 位作者 朱兴林 于志刚 徐进 《中国科技论文》 CAS 2024年第10期1125-1133,共9页
为研究驾驶人在互通立交合流区域的视觉特性及其影响因素,开展了47位被试的实车驾驶试验,利用k-means动态聚类算法划分了驾驶人经过立交合流区时的视窗区域,并选择注视时间、扫视幅度和注视目标占比等作为评价驾驶人视觉特性的指标,分... 为研究驾驶人在互通立交合流区域的视觉特性及其影响因素,开展了47位被试的实车驾驶试验,利用k-means动态聚类算法划分了驾驶人经过立交合流区时的视窗区域,并选择注视时间、扫视幅度和注视目标占比等作为评价驾驶人视觉特性的指标,分析加速车道形式对驾驶人视觉特性的影响。结果表明:驾驶人的注视视窗主要集中在6个区域。在加速车道段,驾驶人对前方道路近处的注视需求最高,加速车道长度不足时,会增加驾驶人对左侧车辆的关注,其水平扫视幅度更为广泛;在直接式加速车道时,驾驶人对前方道路及车辆目标的注视需求较高;在平行式加速车道时更关注道路左侧和设施信息,即护栏和交通标志信息。 展开更多
关键词 交通工程 互通立交 立交合流区 驾驶人视觉 视觉搜索特性 驾驶行为
下载PDF
基于视觉驱动的船舶小组立智能焊接机器人自适应控制系统设计
7
作者 王康杰 房咨辰 《机床与液压》 北大核心 2024年第17期46-52,共7页
为提高船舶小组立自动化焊接水平,提出一种基于视觉驱动的智能焊接机器人自适应控制系统。使用环境感知模块进行全域信息感知,分散式多点采集目标信息实现综合定位。在深入探究工件自适应决策算法和多向动态规划算法的基础上开发出一套... 为提高船舶小组立自动化焊接水平,提出一种基于视觉驱动的智能焊接机器人自适应控制系统。使用环境感知模块进行全域信息感知,分散式多点采集目标信息实现综合定位。在深入探究工件自适应决策算法和多向动态规划算法的基础上开发出一套面向船舶小组立工件的自适应控制系统,并结合机器人实时位姿信息与局部环境信息进行目标跟踪。该系统可根据系统决策规划,匹配对应工艺参数,实现机器人自主编程。搭建一套船舶小组立焊接工作站,并以含两条300 mm角焊缝的小肘板工件为例进行试验验证。结果表明:该焊接工作站针对该焊接对象的生产节拍约为84.5 s/件,说明该系统可以适应多种小组立工件,实现高质量的自动化焊接。 展开更多
关键词 船舶小组立 智能焊接 工业机器人 在线自适应 视觉驱动
下载PDF
基于机器视觉的雨雾天驾驶辅助系统设计
8
作者 洪儒 于力涵 +1 位作者 戴安邦 谢迎娟 《计算机测量与控制》 2024年第3期259-266,共8页
随着私家车数量日益增多,雨雾天交通安全问题成为了亟待解决的难题;在嵌入式硬件资源有限的情况下,为驾驶用户设计了基于机器视觉的雨雾天语音辅助驾驶系统;系统结合了湿度传感器、轻量化去雾神经网络AOD-NET和目标检测模型YOLOv5n;在... 随着私家车数量日益增多,雨雾天交通安全问题成为了亟待解决的难题;在嵌入式硬件资源有限的情况下,为驾驶用户设计了基于机器视觉的雨雾天语音辅助驾驶系统;系统结合了湿度传感器、轻量化去雾神经网络AOD-NET和目标检测模型YOLOv5n;在目标检测模型YOLOv5n上,利用K-means++算法重新设计锚框,选取较优的骨干网络并利用模型剪枝进一步压缩模型大小;实验结果表明,改进的模型在Jetsonnano上的FPS达到了17.78,最终mAP在人工加雾、分辨率变化的TT100K (Tsinghua-Tencent 100K)数据集到达了65.8%,满足了正常天气与雨雾天气下的驾驶辅助实际应用。 展开更多
关键词 机器视觉 Jetson nano 雨雾天辅助驾驶 交通标志检测 AOD-NET去雾 YOLOv5n
下载PDF
基于PLC及工业机器人的散热风扇风轮组装设备控制系统设计
9
作者 黄铭贤 谢伟平 《科技创新与应用》 2024年第34期124-127,共4页
该文的控制对象为散热风扇风轮组装设备,其中风扇底座由链条运输,风轮由2台SCARA机器人配合装配,压合动作由伺服驱动完成。该文首先对设备进行动作分析与工位划分,根据需求进行硬件选型与硬件系统设计。然后,通过PLC与机器人编程完成对... 该文的控制对象为散热风扇风轮组装设备,其中风扇底座由链条运输,风轮由2台SCARA机器人配合装配,压合动作由伺服驱动完成。该文首先对设备进行动作分析与工位划分,根据需求进行硬件选型与硬件系统设计。然后,通过PLC与机器人编程完成对各工位的动作逻辑控制与抓取位置求解,其中设备的动作逻辑主要为链条将风扇底座运输至指定工位后触发风轮组装和压合动作,机器人动作由PLC通过I/O信号触发,大机器人抓取坐标通过设计修正算法由PLC计算,小机器人装配位置由视觉系统定位,风轮压合过程中通过传感器采集压力值以识别不良品。最后,各工位通过交互信号完成所设定的动作。经验证,该控制系统能实现对散热风扇风轮组装设备的自动化控制。 展开更多
关键词 PLC SCARA机器人 机器视觉 伺服驱动 装配设备
下载PDF
基于机器视觉的驾驶员危险驾驶检测系统的设计与实验研究
10
作者 张贝宁 郜健铭 +3 位作者 王靖涵 张敬 顿媛雅 许留洋 《科学技术创新》 2024年第3期48-51,共4页
本文基于机器视觉技术设计了驾驶员危险驾驶检测系统,该系统的硬件部分包括DSP芯片、摄像头和音频芯片等;软件部分包括图像采集和预处理模块,目标检测模块和疲劳驾驶检测模块。实验结果表明,该系统的人脸检测准确率较高,疲劳驾驶检测的... 本文基于机器视觉技术设计了驾驶员危险驾驶检测系统,该系统的硬件部分包括DSP芯片、摄像头和音频芯片等;软件部分包括图像采集和预处理模块,目标检测模块和疲劳驾驶检测模块。实验结果表明,该系统的人脸检测准确率较高,疲劳驾驶检测的准确度达到86%,较好地完成了驾驶员危险驾驶行为的检测任务。 展开更多
关键词 机器视觉 驾驶员危险驾驶检测系统 人脸检测 图像预处理
下载PDF
基于无人驾驶小麦收割机立体视觉感知系统
11
作者 李邦国 王辉 +3 位作者 宋杨 任志伟 刘跃华 徐乐程 《中国农机化学报》 北大核心 2024年第9期244-249,共6页
针对小麦收割机在农场无人驾驶作业时无法实现动态障碍的实时避障,无人驾驶技术安全性低等问题,设计一种基于立体视觉与深度学习相结合的无人驾驶立体视觉感知系统。首先使用立体视觉相机采集左右目灰度图像,通过图像中像素位置的视差... 针对小麦收割机在农场无人驾驶作业时无法实现动态障碍的实时避障,无人驾驶技术安全性低等问题,设计一种基于立体视觉与深度学习相结合的无人驾驶立体视觉感知系统。首先使用立体视觉相机采集左右目灰度图像,通过图像中像素位置的视差以及立体视觉成像原理,实现对障碍物的距离计算;再将相机采集的RGB图像通过深度学习进行处理,实现障碍物的检测识别,最终完成对动态障碍物的感知。结果表明,基于立体视觉与深度学习的无人驾驶感知系统在农场无人驾驶作业中动态障碍物的检测速率达到30.1 fps,精确率达到98.24%。该方法能够较好的满足作业中动态障碍物检测的识别要求,显著提升无人驾驶小麦收割机作业时的安全性和可靠性,为智能农机无人驾驶的研制奠定理论与技术基础。 展开更多
关键词 小麦收割机 无人驾驶 立体视觉相机 深度学习 目标检测
下载PDF
基于激光雷达的3D目标检测研究综述
12
作者 余杭 《汽车文摘》 2024年第2期18-27,共10页
近年来,随着自动驾驶技术的快速发展,智能汽车对于环境感知技术的需求也越来越高,由于激光雷达数据具有较高的精度,能够更好的获取环境中的三维信息,已经成为了3D目标检测领域研究的热点。为了给智能汽车提供更加准确的环境信息,对激光... 近年来,随着自动驾驶技术的快速发展,智能汽车对于环境感知技术的需求也越来越高,由于激光雷达数据具有较高的精度,能够更好的获取环境中的三维信息,已经成为了3D目标检测领域研究的热点。为了给智能汽车提供更加准确的环境信息,对激光雷达3D目标检测领域主要研究内容进行综述。首先,分析了自动驾驶车辆各种环境感知传感器的优缺点;其次,根据3D目标检测算法中数据处理方式的不同,综述了基于点云的检测算法和图像与点云融合的检测算法;然后,梳理了主流自动驾驶数据集及其3D目标检测评估方法;最后对当前点云3D目标检测算法进行总结和展望,结果表明当前研究中2D视图法和多模态融合法对自动驾驶技术发展的重要性。 展开更多
关键词 机器视觉 激光雷达 自动驾驶 3D目标检测 雷达点云
下载PDF
汽车智能驾舱驾驶疲劳检测系统设计 被引量:1
13
作者 柏俊波 周涛琪 柏俊杰 《现代电子技术》 北大核心 2024年第1期147-152,共6页
疲劳驾驶是影响交通安全的主要因素,当前疲劳驾驶的检测方法普遍存在设备体积大、侵入性强、实时性差等弊端。文中设计的基于FPGA的疲劳驾驶检测系统,首先利用区域长宽比改进YCbCr人脸分割算法,提高算法在驾驶环境中对于人脸的辨识度;... 疲劳驾驶是影响交通安全的主要因素,当前疲劳驾驶的检测方法普遍存在设备体积大、侵入性强、实时性差等弊端。文中设计的基于FPGA的疲劳驾驶检测系统,首先利用区域长宽比改进YCbCr人脸分割算法,提高算法在驾驶环境中对于人脸的辨识度;然后建立动态视频人眼跟踪模型,在人脸范围内定位人眼位置,采用三帧差算法检测眨眼动作,以眨眼率作为疲劳的评价指标,对司机状态进行实时监控;最后利用FPGA芯片完成实时图像数据的处理和疲劳驾驶检测。实验证明,该系统具备在光线昏暗和佩戴眼镜等场景下检测疲劳状态的能力,并且检测系统充分发挥FPGA芯片数据并行处理优势,具备体积小、速度快、集成度高,通电即可工作的特点,有利于在狭小的驾驶舱环境部署,具有一定的工程应用价值。 展开更多
关键词 疲劳驾驶检测 人脸识别 机器视觉 眨眼率 帧差法 FPGA
下载PDF
机器视觉在智能驾驶中的应用研究
14
作者 余甜 柴华 孟然 《数字通信世界》 2024年第7期115-117,共3页
随着人工智能与计算机视觉技术的快速发展,机器视觉成智能驾驶关键技术。该文深入研究其在智能驾驶的应用,概述主要功能,如道路检测等,还分析了各功能的技术实现方法及实际应用,展现了机器视觉对智能驾驶的重要性。
关键词 机器视觉 智能驾驶 道路检测 交通标志识别
下载PDF
自动驾驶场景下的图像三维目标检测研究进展
15
作者 周燕 许业文 +3 位作者 蒲磊 徐雪妙 刘翔宇 周月霞 《计算机科学》 CSCD 北大核心 2024年第11期133-147,共15页
二维目标检测技术由于缺乏对物理世界尺寸、深度等信息的描述,在自动驾驶场景中应用还存在较大的局限性。许多研究者结合自动驾驶实际需要,在图像三维目标检测上做了许多探索。为了对该领域进行全面研究,文中对近年来国内外发表的相关... 二维目标检测技术由于缺乏对物理世界尺寸、深度等信息的描述,在自动驾驶场景中应用还存在较大的局限性。许多研究者结合自动驾驶实际需要,在图像三维目标检测上做了许多探索。为了对该领域进行全面研究,文中对近年来国内外发表的相关文献进行综述,介绍了基于图像的三维目标检测以及图像与点云融合的三维目标检测两类方法,并根据网络对输入数据的不同处理方式,对两类方法进一步细分,阐述了各个类别中的代表性方法,对各类方法的优劣进行总结,对比并分析了各算法的性能。此外,详细介绍了自动驾驶场景下三维目标检测的相关数据集和评价指标。最后,对图像三维目标检测领域中存在的挑战和困难进行了分析,并对未来可能的研究方向进行了展望。 展开更多
关键词 图像三维目标检测 深度学习 自动驾驶 多模态融合 计算机视觉
下载PDF
采用双目视觉的道路缺陷检测与自动驾驶风险评估
16
作者 潘明章 袁乐艺 +3 位作者 万振华 梁璐 苟轩源 曹鑫鑫 《重庆理工大学学报(自然科学)》 CAS 北大核心 2024年第9期67-74,共8页
道路缺陷检测作为保障自动驾驶安全的重要问题,现有道路缺陷检测方法无法满足自动驾驶精准检测道路缺陷需求。且现有的评估模型仅考虑道路缺陷的严重程度,没有考虑到缺陷距离的影响。为了解决这一问题,提出一种改进YOLOv8的道路缺陷检... 道路缺陷检测作为保障自动驾驶安全的重要问题,现有道路缺陷检测方法无法满足自动驾驶精准检测道路缺陷需求。且现有的评估模型仅考虑道路缺陷的严重程度,没有考虑到缺陷距离的影响。为了解决这一问题,提出一种改进YOLOv8的道路缺陷检测和自动驾驶风险评估方法。在网络中不同位置引入注意力机制,改进YOLOv8网络并融合了双目视觉和SGBM算法。通过对比实验,得出符合自动驾驶场景的最优模型,比原始网络平均准确度提高1.31%,实现实时检测道路缺陷的类型及距离。根据检测和评估结果,对道路缺陷进行自动驾驶风险等级判定,制定了基本行驶策略。 展开更多
关键词 道路缺陷 自动驾驶 神经网络 注意力机制 双目视觉
下载PDF
新能源汽车自动驾驶高精度视觉检测技术的研究及应用 被引量:1
17
作者 程学晓 《时代汽车》 2024年第5期104-106,共3页
近年来新能源汽车得到广泛推广应用,新能源汽车自动驾驶技术作为汽车领域的重要创新,依赖高精度视觉检测技术实现对环境的准确感知。本论文深入研究了新能源汽车自动驾驶中的高精度视觉检测技术及其应用策略。在机器视觉与视觉检测技术... 近年来新能源汽车得到广泛推广应用,新能源汽车自动驾驶技术作为汽车领域的重要创新,依赖高精度视觉检测技术实现对环境的准确感知。本论文深入研究了新能源汽车自动驾驶中的高精度视觉检测技术及其应用策略。在机器视觉与视觉检测技术的发展阐述后,重点探讨了汽车自动驾驶中高精度视觉检测技术在城市道路和高速公路等场景中的实际应用策略。通过分析特斯拉和谷歌自动驾驶项目等典型汽车厂商的实践经验,以及高精度视觉检测在事故预防和安全性方面的实际效果,为深入理解该技术的价值和潜力提供了实质性的支持。 展开更多
关键词 自动驾驶 新能源汽车 高精度视觉检测 机器视觉 深度学习
下载PDF
Advancing Crowd Object Detection: A Review of YOLO, CNN and ViTs Hybrid Approach*
18
作者 Mahmoud Atta Mohammed Ali Tarek Aly +2 位作者 Atef Tayh Raslan Mervat Gheith Essam A. Amin 《Journal of Intelligent Learning Systems and Applications》 2024年第3期175-221,共47页
One of the most basic and difficult areas of computer vision and image understanding applications is still object detection. Deep neural network models and enhanced object representation have led to significant progre... One of the most basic and difficult areas of computer vision and image understanding applications is still object detection. Deep neural network models and enhanced object representation have led to significant progress in object detection. This research investigates in greater detail how object detection has changed in the recent years in the deep learning age. We provide an overview of the literature on a range of cutting-edge object identification algorithms and the theoretical underpinnings of these techniques. Deep learning technologies are contributing to substantial innovations in the field of object detection. While Convolutional Neural Networks (CNN) have laid a solid foundation, new models such as You Only Look Once (YOLO) and Vision Transformers (ViTs) have expanded the possibilities even further by providing high accuracy and fast detection in a variety of settings. Even with these developments, integrating CNN, YOLO and ViTs, into a coherent framework still poses challenges with juggling computing demand, speed, and accuracy especially in dynamic contexts. Real-time processing in applications like surveillance and autonomous driving necessitates improvements that take use of each model type’s advantages. The goal of this work is to provide an object detection system that maximizes detection speed and accuracy while decreasing processing requirements by integrating YOLO, CNN, and ViTs. Improving real-time detection performance in changing weather and light exposure circumstances, as well as detecting small or partially obscured objects in crowded cities, are among the goals. We provide a hybrid architecture which leverages CNN for robust feature extraction, YOLO for rapid detection, and ViTs for remarkable global context capture via self-attention techniques. Using an innovative training regimen that prioritizes flexible learning rates and data augmentation procedures, the model is trained on an extensive dataset of urban settings. Compared to solo YOLO, CNN, or ViTs models, the suggested model exhibits an increase in detection accuracy. This improvement is especially noticeable in difficult situations such settings with high occlusion and low light. In addition, it attains a decrease in inference time in comparison to baseline models, allowing real-time object detection without performance loss. This work introduces a novel method of object identification that integrates CNN, YOLO and ViTs, in a synergistic way. The resultant framework extends the use of integrated deep learning models in practical applications while also setting a new standard for detection performance under a variety of conditions. Our research advances computer vision by providing a scalable and effective approach to object identification problems. Its possible uses include autonomous navigation, security, and other areas. 展开更多
关键词 Object Detection Deep Learning Computer vision YOLO Convolutional Neural Networks (CNN) vision Transformers Neural Networks Transfer Learning Autonomous Driving Self-drive Vehicles
下载PDF
基于视觉的智能驾驶虚拟仿真平台与课程教学实践 被引量:2
19
作者 周越 杨宗浩 解宇 《实验室研究与探索》 CAS 北大核心 2023年第5期255-259,278,共6页
基于视觉的智能驾驶作为自动化技术的重要应用成为当前研究的热点,但受到实验场景客观限制很难引入课堂的实践教学。为引导学生从理论出发、由实践深入,切实培养敢创新、善实践的复合型人才,构建了基于计算机视觉的智能驾驶虚拟仿真平台... 基于视觉的智能驾驶作为自动化技术的重要应用成为当前研究的热点,但受到实验场景客观限制很难引入课堂的实践教学。为引导学生从理论出发、由实践深入,切实培养敢创新、善实践的复合型人才,构建了基于计算机视觉的智能驾驶虚拟仿真平台,在此基础上提出了一种感知环境深度信息的仿真算法,为解决实际场景标注大量样本的问题提供了解决方案;同时平台提供了多样化的智能驾驶仿真场景、多角度的观察视野以及丰富的功能控制模块。教学实践表明,该平台为学生系统地掌握计算机视觉领域知识,激发学习热情和培养创新实践能力起到了促进作用,平台也为实践教学提供了新的模式。 展开更多
关键词 计算机视觉 智能驾驶虚拟仿真平台 实践教学 环境深度感知
下载PDF
双目视觉的智能汽车目标检测算法研究 被引量:4
20
作者 申彩英 朱思瑶 黄兴驰 《重庆理工大学学报(自然科学)》 北大核心 2023年第11期11-19,共9页
智能汽车的环境感知是实现自动驾驶的重要一环,对道路交通主要参与者(汽车、行人、骑行者)进行检测识别的研究。提出一种基于YOLO算法改进的端到端的目标检测算法dual-YOLO。将注意力机制引入检测网络模型,提高网络对有效特征的学习权重... 智能汽车的环境感知是实现自动驾驶的重要一环,对道路交通主要参与者(汽车、行人、骑行者)进行检测识别的研究。提出一种基于YOLO算法改进的端到端的目标检测算法dual-YOLO。将注意力机制引入检测网络模型,提高网络对有效特征的学习权重,从而提高检测精度。加入双目摄像头距离测算模块,获取目标距离信息。测试结果表明:dual-YOLO目标检测算法识别道路交通主要参与者的平均准确率能达到85.99%,在骑行者和行人检测方面明显优于其他算法,检测速度能达到60 fps,提出的算法能较好地完成智能汽车行驶实时检测和测距需求。 展开更多
关键词 智能驾驶汽车 双目视觉 神经网络 目标检测 注意力机制
下载PDF
上一页 1 2 11 下一页 到第
使用帮助 返回顶部