期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
一种基于BERT和池化操作的文本分类模型 被引量:2
1
作者 张军 邱龙龙 《计算机与现代化》 2022年第6期1-7,共7页
使用预训练语言模型的微调方法在以文本分类为代表的许多自然语言处理任务中取得了良好的效果,尤其以基于Transformer框架的BERT模型为典型代表。然而,BERT直接使用[CLS]对应的向量作为文本表征,没有从全局和局部考虑文本的特征,从而限... 使用预训练语言模型的微调方法在以文本分类为代表的许多自然语言处理任务中取得了良好的效果,尤其以基于Transformer框架的BERT模型为典型代表。然而,BERT直接使用[CLS]对应的向量作为文本表征,没有从全局和局部考虑文本的特征,从而限制了模型的分类性能。因此,本文提出一种引入池化操作的文本分类模型,使用平均池化、最大池化以及K-MaxPooling等池化方法从BERT输出矩阵中提取文本的表征向量。实验结果表明,与原始的BERT模型相比,本文提出的引入池化操作的文本分类模型具有更好的性能,在实验的所有文本分类任务中,其准确率和F1-Score值均优于BERT模型。 展开更多
关键词 文本分类 分类模型 BERT 平均池化 最大池化 k-maxpooling
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部