针对指针式仪表图像特点及现有读数识别方法存在的局限,提出了一种基于轻量级图像语义分割模型的读数全自动识别方法。首先,以轻量级语义分割网络CGNet为基础进行改进,通过增加通道注意力模块SENet进行特征增强和融合,同时适当加深分类...针对指针式仪表图像特点及现有读数识别方法存在的局限,提出了一种基于轻量级图像语义分割模型的读数全自动识别方法。首先,以轻量级语义分割网络CGNet为基础进行改进,通过增加通道注意力模块SENet进行特征增强和融合,同时适当加深分类层,从而预测更准确的刻度线、指针、量程数字等语义信息;接着,根据刻度线语义分割结果拟合椭圆,建立与标准圆的透视变换关系校正倾斜畸变的图像;然后,在校正图像中通过极坐标变换、图像细化、垂直投影等后处理操作精确提取刻度线、指针,并通过optical character recognition技术识别量程数字;最后,根据刻度线与指针相对位置关系及量程信息确定仪表读数。为验证该方法的有效性,构建了指针式仪表图像数据集。实验结果表明,该方法在图像语义分割精度上与现有轻量化方法相比有较大提升,对测试集图像读数识别的平均相对误差约为0.63%,可满足实际应用需求。展开更多
文摘针对指针式仪表图像特点及现有读数识别方法存在的局限,提出了一种基于轻量级图像语义分割模型的读数全自动识别方法。首先,以轻量级语义分割网络CGNet为基础进行改进,通过增加通道注意力模块SENet进行特征增强和融合,同时适当加深分类层,从而预测更准确的刻度线、指针、量程数字等语义信息;接着,根据刻度线语义分割结果拟合椭圆,建立与标准圆的透视变换关系校正倾斜畸变的图像;然后,在校正图像中通过极坐标变换、图像细化、垂直投影等后处理操作精确提取刻度线、指针,并通过optical character recognition技术识别量程数字;最后,根据刻度线与指针相对位置关系及量程信息确定仪表读数。为验证该方法的有效性,构建了指针式仪表图像数据集。实验结果表明,该方法在图像语义分割精度上与现有轻量化方法相比有较大提升,对测试集图像读数识别的平均相对误差约为0.63%,可满足实际应用需求。