期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
基于预训练模型与记忆卷积网络的立场检测研究
1
作者 陈珂 周浩轩 王国权 《计算机技术与发展》 2023年第8期180-185,共6页
立场检测研究旨在研究特定文本针对特定话题所表达的支持、中立或反对立场,在以往的中文文本立场分析研究方法中,未关注文本结构间的依赖关系,且评论文本所隐含的立场往往是隐晦和不敏感的。该文提出了基于双向Transformer的大规模预训... 立场检测研究旨在研究特定文本针对特定话题所表达的支持、中立或反对立场,在以往的中文文本立场分析研究方法中,未关注文本结构间的依赖关系,且评论文本所隐含的立场往往是隐晦和不敏感的。该文提出了基于双向Transformer的大规模预训练语言模型BERT(Bidirectional Encoder Representation from Transformers)和长短时记忆(LSTM)以及卷积神经网络(CNN)相结合的立场分析方法来解决这个问题,同时,为解决BERT模型针对不同数据样本输入向量维度不一所导致的误差,提出了一种最优字个数维度判定算法对BERT模型输入进行分析。模型搭建上创新地采用并行输入输出的方法,充分利用了LSTM的全局特征提取和CNN的局部特征提取的优势,并且所用BERT模型更能对隐晦特征及不敏感特征进行提取,利用这一方法可以有效地判定不同目标对某一特定话题所表达的支持、中立或者反对立场。经过对比传统模型以及现有立场分析方法表明,所提模型拥有较好的性能,其F1值达到0.883。 展开更多
关键词 立场分析 最优字维度判定 BERT 长短时记忆 卷积神经网络
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部