期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
一种基于词上下文向量的文本自动分类方法 被引量:5
1
作者 郭少友 《情报科学》 CSSCI 北大核心 2008年第7期1030-1034,共5页
分析了传统文本自动分类方法的不足、词上下文向量的含义及其在自动分类中的作用,提出了一种基于词上下文向量的文本自动分类方法,该方法利用词上下文向量来生成分类器的类别中心向量和待分类文本的文本向量,使分类质量有所提高。
关键词 自动分类 上下文 词上下文向量 分类器 文本表示
下载PDF
基于词语上下文关系的文本自动分类方法研究
2
作者 郭少友 《现代图书情报技术》 CSSCI 北大核心 2008年第5期44-49,共6页
用词上下文向量来表达文本集内一个词语与其他词语之间的上下文关系,并在词上下文向量的基础上生成分类器中所有类别的类别特征向量,以及待分类文本的特征向量,最后由分类器给出待分类文本的所属类别。实验显示,在类别特征向量和文本向... 用词上下文向量来表达文本集内一个词语与其他词语之间的上下文关系,并在词上下文向量的基础上生成分类器中所有类别的类别特征向量,以及待分类文本的特征向量,最后由分类器给出待分类文本的所属类别。实验显示,在类别特征向量和文本向量中融入词语上下文关系有助于改善文本分类效果。 展开更多
关键词 文本自动分类 上下文 词上下文向量
下载PDF
基于BERT与BiLSTM的中文短文本情感分析 被引量:9
3
作者 刘文秀 李艳梅 +2 位作者 罗建 李薇 付顺兵 《太原师范学院学报(自然科学版)》 2020年第4期52-58,共7页
为了减少文本情感分析方法中对分词准确性的依赖程度,同时,也为了解决一词多义的问题,提出了一种基于BERT和双向长短时记忆网络(BiLSTM)的文本情感分类模型.首先,该模型采用BERT(Bidirectional Encode,Representation from Transformers... 为了减少文本情感分析方法中对分词准确性的依赖程度,同时,也为了解决一词多义的问题,提出了一种基于BERT和双向长短时记忆网络(BiLSTM)的文本情感分类模型.首先,该模型采用BERT(Bidirectional Encode,Representation from Transformers,BERT)预训练的字向量替代传统方式训练的词向量,然后利用BiLSTM对文本上下文进行关系特征提取,最后再利用Softmax分类器获得文本所属情感类别.实验证明,与LSTM、BiLSTM、TextCNN和BERT-LSTM模型相比,该模型在综合评价指标F1上分别提高了6.78%、6.74%、2.52%和1.01%;测试集正确率分别提升了6.66%、6.31%、1.95%和0.85%. 展开更多
关键词 文本情感分析 上下文信息 双向长短时记忆网络 预训练语言模型 字向量
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部