针对电力设备运行和维护中所产生的大量碎片化、非系统性以及相关性不足设备缺陷文本,提出了一种电力设备缺陷文本识别模型。使用基于全词掩码的预训练模型(bidirectional encoder representation from transform-ers,BERT)替换基于随...针对电力设备运行和维护中所产生的大量碎片化、非系统性以及相关性不足设备缺陷文本,提出了一种电力设备缺陷文本识别模型。使用基于全词掩码的预训练模型(bidirectional encoder representation from transform-ers,BERT)替换基于随机掩码的BERT模型,提高了对电力词汇的理解力。使用双向长短期记忆网络(bidirection-al long short-term memory,BiLSTM)提高了模型捕获上下文信息的能力,并提高了模型的鲁棒性,引入注意力机制(attention)可以更好地捕获电力设备缺陷实体之间的复杂依赖关系,从而进一步提升模型的表现。实验结果显示,该模型准确率、召回率、F1值分别为96.26%、96.94%、96.60%,在地点、缺陷内容和设备三种实体上的F1值均优于其他模型。展开更多
文摘针对电力设备运行和维护中所产生的大量碎片化、非系统性以及相关性不足设备缺陷文本,提出了一种电力设备缺陷文本识别模型。使用基于全词掩码的预训练模型(bidirectional encoder representation from transform-ers,BERT)替换基于随机掩码的BERT模型,提高了对电力词汇的理解力。使用双向长短期记忆网络(bidirection-al long short-term memory,BiLSTM)提高了模型捕获上下文信息的能力,并提高了模型的鲁棒性,引入注意力机制(attention)可以更好地捕获电力设备缺陷实体之间的复杂依赖关系,从而进一步提升模型的表现。实验结果显示,该模型准确率、召回率、F1值分别为96.26%、96.94%、96.60%,在地点、缺陷内容和设备三种实体上的F1值均优于其他模型。