期刊文献+

基于GRU-Attention的中文文本分类 被引量:11

Chinese Text Classification Based on GRU-Attention
下载PDF
导出
摘要 传统的GRU分类模型是一种基于LSTM的模型变体,它在LSTM的基础上将遗忘门和输入门合并成更新门,使得最终的模型比标准的LSTM模型更简单。可是LSTM和GRU均没有体现每个隐层输出的重要程度。为了得到每个输出的重要程度,本文在GRU的基础上加入了注意力(Attention)机制,设计了GRU-Attention分类模型,并通过对比实验的方式说明了增加了Attention的GRU模型在分类效果上有了一定程度的提升。 The traditional GRU classification model is a model variant based on LSTM. It combines forgetting gate and input gate into update gate on the basis of LSTM,which makes the final model simpler than the standard LSTM model. However,LSTM and GRU do not reflect the importance of each hidden layer output. In order to get the importance of each output,Attention mechanism is added to GRU,and GRU-Attention classification model is designed,and the comparison experiment shows that the GRU model with Attention improves the classification effect to a certain extent.
作者 孙明敏 SUN Mingmin(Yangzhou University,Yangzhou 225000,China)
机构地区 扬州大学
出处 《现代信息科技》 2019年第3期10-12,共3页 Modern Information Technology
关键词 自然语言处理 文本分类 GRU 注意力机制 natural language processing text classification GRU Attention mechanism
  • 相关文献

参考文献4

二级参考文献13

共引文献50

同被引文献79

引证文献11

二级引证文献116

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部