期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
一种基于联合深度神经网络的食品安全信息情感分类模型 被引量:6
1
作者 刘金硕 张智 《计算机科学》 CSCD 北大核心 2016年第12期277-280,共4页
针对因中文食品安全文本特征表达困难,而造成语义信息缺失进而导致分类器准确率低下的问题,提出一种基于深度神经网络的跨文本粒度情感分类模型。以食品安全新闻报道为目标语料,采用无监督的浅层神经网络初始化文本的词语级词向量。引... 针对因中文食品安全文本特征表达困难,而造成语义信息缺失进而导致分类器准确率低下的问题,提出一种基于深度神经网络的跨文本粒度情感分类模型。以食品安全新闻报道为目标语料,采用无监督的浅层神经网络初始化文本的词语级词向量。引入递归神经网络,将预训练好的词向量作为下层递归神经网络(Recursive Neural Network)的输入层,计算得到具备词语间语义关联性的句子特征向量及句子级的情感倾向输出,同时动态反馈调节词向量特征,使其更加接近食品安全特定领域内真实的语义表达。然后,将递归神经网络输出的句子向量以时序逻辑作为上层循环神经网络(Recurrent Neural Network)的输入,进一步捕获句子结构的上下文语义关联信息,实现篇章级的情感倾向性分析任务。实验结果表明,联合深度模型在食品安全新闻报道的情感分类任务中具有良好的效果,其分类准确率和F1值分别达到了86.7%和85.9%,较基于词袋思想的SVM模型有显著的提升。 展开更多
关键词 联合神经网络模型 多粒度文本特征 词向量 食品安全 情感倾向性分析
下载PDF
一种基于混合神经网络的命名实体识别与共指消解联合模型 被引量:3
2
作者 郜成胜 张君福 +2 位作者 李伟平 赵文 张世琨 《电子学报》 EI CAS CSCD 北大核心 2020年第3期442-448,共7页
命名实体识别与共指消解均依赖于对实体相邻文本信息的学习,本文提出一种基于混合神经网络的命名实体识别与共指消解联合模型,共用双向长短时记忆模型LSTM编码层对输入序列中每个词前后方向上下文信息进行编码,并通过训练学习得到上下... 命名实体识别与共指消解均依赖于对实体相邻文本信息的学习,本文提出一种基于混合神经网络的命名实体识别与共指消解联合模型,共用双向长短时记忆模型LSTM编码层对输入序列中每个词前后方向上下文信息进行编码,并通过训练学习得到上下文信息传递到前馈神经网络FFNN模型以提高共指消解精度,通过将领域文档及篇章语义向量加入FFNN,改进共指消解算法并优化共指消解模型.基于领域文本数据集进行联合模型训练,实验结果表明该联合模型可以有效地提高共指消解精度. 展开更多
关键词 神经网络 命名实体识别 共指消解 联合神经网络模型
下载PDF
基于神经网络模型的影评情感分析研究 被引量:4
3
作者 杨晓晨 莫秀良 王春东 《天津理工大学学报》 2021年第5期13-17,共5页
随着网络的不断发展,越来越多的人们在网络中发表自己的言论,这些带有情感性的文本能够反映出人们的意见信息,对这些文本进行情感分析研究是文本分类的一个重要任务。文中提出了一种加入注意力机制的联合神经网络(convolutional neural ... 随着网络的不断发展,越来越多的人们在网络中发表自己的言论,这些带有情感性的文本能够反映出人们的意见信息,对这些文本进行情感分析研究是文本分类的一个重要任务。文中提出了一种加入注意力机制的联合神经网络(convolutional neural network+long shout-term memory,CNN+LSTM)模型,在互联网电影资料库(internet movie database,IMDB)电影评论数据集上进行实验,设置了两组对比试验,结果表明新模型具有更高的分类准确率,证明了此方法的可行性,为进一步研究优化情感分析模型提供了参考。 展开更多
关键词 情感分析 卷积神经网络 长短时记忆网络 注意力机制 联合神经网络模型
下载PDF
基于DNN与规则学习的机器翻译算法研究 被引量:2
4
作者 陶媛媛 陶丹 《计算机测量与控制》 2021年第1期150-153,158,共5页
通过以目标信息为指导的卷积体系总结相关源信息,提出了一种系统的处理语言方法;利用在解码过程中使用不同的引导信号,经过特殊设计的卷积+门控体系结构可以查明与预测目标单词相关的源句子部分,并将其与整个源句子的上下文融合在一起... 通过以目标信息为指导的卷积体系总结相关源信息,提出了一种系统的处理语言方法;利用在解码过程中使用不同的引导信号,经过特殊设计的卷积+门控体系结构可以查明与预测目标单词相关的源句子部分,并将其与整个源句子的上下文融合在一起形成统一表示形式;研究结果表明,模型将表示形式与目标语言单词一起馈入深度神经网络(DNN),形成更强大的神经网络联合模型(NNJM);通过两个NIST汉英翻译任务的实验验证,在相同设置下,tagCNN和inCNN在Dep2Str基线上的改善幅度分别为+1.28,+1.75 BLEU,所提出的模型分别优于NIST MT04和MT05的平均值+0.36,+0.83 BLEU,比传统DNN机器翻译平均提高了+1.08 BLEU点;模型为统计机器翻译研究提供了新思路。 展开更多
关键词 深度神经网络 机器翻译 神经网络联合模型 卷积
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部