期刊文献+

基于词嵌入和BiLCNN-Attention混合模型的政务文本分类方法

Method of government text classification based on word embedding and BiLCNN-Attention hybrid model
下载PDF
导出
摘要 针对政务文本分析语境复杂、分类准确率低的问题,提出基于BERT词嵌入和BiLCNN-Attention混合模型的文本分类方法。首先采用BERT模型对政务文本进行词嵌入向量表示,然后混合使用双向长短时记忆网络BiLSTM和卷积神经网络CNN,同时引入注意力机制进行特征提取,融合了时序特征及局部特征并使特征得到强化,最后使用Softmax进行文本分类。实验表明,BERT词嵌入处理后混合模型的准确率较CNN和BiLSTM模型分别提升了3.9%和2.51%。 Aiming at the problems of complex context and low classification accuracy of government texts,a text classification method based on BERT word embedding and BiLCNN-Attention hybrid model is proposed.Firstly,the BERT model is used to represent the word embedding vector of the government text.Then,BiLSTM and CNN are mixed,and the attention mechanism is introduced for feature extraction.The timing features and local features are integrated and strengthened.Finally,Softmax is used for text classification.Experiments show that the accuracy of the hybrid model after BERT word embedding is improved by 3.9%and 2.51%compared with CNN and BiLSTM models,respectively.
作者 胡文烨 许鸿奎 郭旭斌 赵京政 Hu Wenye;Xu Hongkui;Guo Xubin;Zhao Jingzheng(School of Information and Electrical Engineering,Jinan,Shandong 250000,China;Shandong Provincial Key Laboratory of Intelligent Buildings Technology)
出处 《计算机时代》 2023年第6期92-95,102,共5页 Computer Era
基金 山东省重大科技创新工程(No.2019JZZY010120) 山东省重点研发计划(No.2019GSF111054)。
关键词 政务文本分析 词嵌入 双向长短时记忆网络 卷积神经网络 注意力机制 analysis of government texts word embedding bi-directional long and short-term memory(BiLSTM) convolutional neural network(CNN) attention mechanism
  • 相关文献

参考文献9

二级参考文献38

共引文献162

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部