-
题名引入辅助损失的多场景车道线检测
被引量:9
- 1
-
-
作者
陈立潮
徐秀芝
曹建芳
潘理虎
-
机构
太原科技大学计算机科学与技术学院
忻州师范学院计算机系
-
出处
《中国图象图形学报》
CSCD
北大核心
2020年第9期1882-1893,共12页
-
基金
山西省自然科学基金项目(201901D111258)
山西省应用基础研究项目(201801D221179)。
-
文摘
目的为解决实时车辆驾驶中因物体遮挡、光照变化和阴影干扰等多场景环境影响造成的车道线检测实时性和准确性不佳的问题,提出一种引入辅助损失的车道线检测模型。方法该模型改进了有效的残差分解网络(effcient residual factorized network,ERFNet),在ERFNet的编码器之后加入车道预测分支和辅助训练分支,使得解码阶段与车道预测分支、辅助训练分支并列,并且在辅助训练分支的卷积层之后,利用双线性插值来匹配输入图像的分辨率,从而对4条车道线和图像背景进行分类。通过计算辅助损失,将辅助损失以一定的权重协同语义分割损失、车道预测损失进行反向传播,较好地解决了梯度消失问题。语义分割得到每条车道线的概率分布图,分别在每条车道线的概率分布图上按行找出概率大于特定阈值的最大点的坐标,并按一定规则选取相应的坐标点,形成拟合的车道线。结果经过在CULane公共数据集上实验测试,模型在正常场景的F1指标为91.85%,与空间卷积神经网络(spatial convolutional neural network,SCNN)模型相比,提高了1.25%,比其他场景分别提高了1%~7%;9种场景的F1平均值为73.76%,比目前最好的残差网络———101-自注意力蒸馏(ResNet-101-self attention distillation,R-101-SAD)模型(71.80%)高出1.96%。在单个GPU上测试,每幅图像的平均运行时间缩短至原来的1/13,模型的参数量减少至原来的1/10。与平均运行时间最短的车道线检测模型ENet———自注意力蒸馏(ENetself attention distillation,ENet-SAD)相比,单幅图像的平均运行时间减短了2.3 ms。结论在物体遮挡、光照变化、阴影干扰等多种复杂场景下,对于实时驾驶车辆而言,本文模型具有准确性高和实时性好等特点。
-
关键词
多场景车道线检测
语义分割网络
辅助损失
梯度消失
CULane数据集
-
Keywords
multi-scenario lane line detection
semantic segmentation network
auxiliary loss
gradient disappear
CULane dataset
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-