期刊文献+
共找到160篇文章
< 1 2 8 >
每页显示 20 50 100
Word2Vec新闻推荐系统设计与实现——基于Attention机制与Embedding优化
1
作者 陈宇 《情报探索》 2024年第10期88-96,共9页
[目的/意义]设计基于Attention机制与Embedding优化的Word2Vec新闻推荐系统,通过词向量计算上的性能提升改善推荐成效。[方法/过程]重点解决改进Word2Vec的新闻推荐系统建设中的3个关键技术难点:(1)基于Attention机制与Embedding优化的W... [目的/意义]设计基于Attention机制与Embedding优化的Word2Vec新闻推荐系统,通过词向量计算上的性能提升改善推荐成效。[方法/过程]重点解决改进Word2Vec的新闻推荐系统建设中的3个关键技术难点:(1)基于Attention机制与Embedding优化的Word2Vec模型构建,为系统提供词向量计算神经网络;(2)MongoDB及Redis数据库的可用性提升,提升分布式框架下的数据库架构鲁棒性;(3)构建智能监控与运维平台。[结果/结论]对比Word2Vec,基于Attention机制与Embedding优化的Word2Vec在损失值和准确率方面明显提升,数据库层优化及智能监控与运维平台提升系统可靠性和稳定性。 展开更多
关键词 新闻推荐 词向量 注意力机制
下载PDF
融入Attention机制改进Word2vec技术的水利水电工程专业词智能提取与分析方法 被引量:21
2
作者 李明超 田丹 +2 位作者 沈扬 Jonathan Shi 韩帅 《水利学报》 EI CSCD 北大核心 2020年第7期816-826,共11页
水利水电工程专业文本信息处理与分析以往主要依赖于人工交互,存在过程繁琐、效率低且易出错等问题。本文基于自然语言处理技术,引入Attention机制对Word2vec技术加以改进,提出了一种智能高效的水利水电工程专业词识别提取与分析方法。... 水利水电工程专业文本信息处理与分析以往主要依赖于人工交互,存在过程繁琐、效率低且易出错等问题。本文基于自然语言处理技术,引入Attention机制对Word2vec技术加以改进,提出了一种智能高效的水利水电工程专业词识别提取与分析方法。该方法通过组合Attention机制,改进Word2vec技术建立了专业词向量计算模型;根据所求词向量,计算词语间相似度,以词语间相似度为组合标准,组合提取水利水电工程专业词;进而结合已有的水利水电工程专业文本,验证所提取专业词的可信度,实现了水利水电工程专业词的自动提炼,构建了一套水利水电工程专业词智能识别提取与分析体系。该方法应用于实际某混凝土大坝长达229周的施工监理周报文本分析中,经过3轮识别计算与分析,获得了9034个水利水电工程专业词,准确率为87.58%,有效提升了水利水电工程专业文本信息提取分析的效率、准确率与智能化水平。 展开更多
关键词 水利水电工程 专业文本 自然语言处理 词向量 word2vec技术 attention机制 智能提取
下载PDF
Attention U-Net在雷达信号图像化分选中的应用研究
3
作者 郭立民 张鹤韬 +2 位作者 莫禹涵 于飒宁 胡懿真 《舰船电子对抗》 2024年第3期78-83,95,共7页
针对海战场复杂电磁环境对雷达信号分选的挑战,采用改进的U-Net网络结合注意力机制提出新的分选方法。首先,将脉冲描述字转化为图像序列以适应深度学习处理。通过优化U-Net架构,融入注意力机制,有效提升模型对关键脉冲特征的识别与提取... 针对海战场复杂电磁环境对雷达信号分选的挑战,采用改进的U-Net网络结合注意力机制提出新的分选方法。首先,将脉冲描述字转化为图像序列以适应深度学习处理。通过优化U-Net架构,融入注意力机制,有效提升模型对关键脉冲特征的识别与提取能力,实现像素级分类。通过此方法,系统能够精准搜索并归类所有雷达脉冲。实验证明,在海战场复杂电磁环境中,该方法显著提升了雷达信号分选准确率,提供了一种应对强干扰环境下的高效解决方案。这一研究成果证实了Attention U-Net在雷达信号智能分选中的优越性和实用性。 展开更多
关键词 雷达信号分选 U-Net网络 注意力机制 脉冲描述字
下载PDF
基于BERT和层次化Attention的微博情感分析研究 被引量:20
4
作者 赵宏 傅兆阳 赵凡 《计算机工程与应用》 CSCD 北大核心 2022年第5期156-162,共7页
微博情感分析旨在挖掘网民对特定事件的观点和看法,是网络舆情监测的重要内容。目前的微博情感分析模型一般使用Word2Vector或GloVe等静态词向量方法,不能很好地解决一词多义问题;另外,使用的单一词语层Attention机制未能充分考虑文本... 微博情感分析旨在挖掘网民对特定事件的观点和看法,是网络舆情监测的重要内容。目前的微博情感分析模型一般使用Word2Vector或GloVe等静态词向量方法,不能很好地解决一词多义问题;另外,使用的单一词语层Attention机制未能充分考虑文本层次结构的重要性,对句间关系捕获不足。针对这些问题,提出一种基于BERT和层次化Attention的模型BERT-HAN(bidirectional encoder representations from transformers-hierarchical Attention networks)。通过BERT生成蕴含上下文语意的动态字向量;通过两层BiGRU分别得到句子表示和篇章表示,在句子表示层引入局部Attention机制捕获每句话中重要的字,在篇章表示层引入全局Attention机制以区分不同句子的重要性;通过Softmax对情感进行分类。实验结果表明,提出的BERT-HAN模型能有效提升微博情感分析的Macro F1和Micro F1值,具有较大的实用价值。 展开更多
关键词 深度学习 情感分析 特征提取 词向量 注意力机制
下载PDF
基于BERT-BiGRU-Attention的在线健康社区用户意图识别方法 被引量:7
5
作者 迟海洋 严馨 +2 位作者 周枫 徐广义 张磊 《河北科技大学学报》 CAS 2020年第3期225-232,共8页
针对传统用户意图识别主要使用基于模板匹配或人工特征集合方法导致成本高、扩展性低的问题,提出了一种基于BERT词向量和BiGRU-Attention的混合神经网络意图识别模型。首先使用BERT预训练的词向量作为输入,通过BiGRU对问句进行特征提取... 针对传统用户意图识别主要使用基于模板匹配或人工特征集合方法导致成本高、扩展性低的问题,提出了一种基于BERT词向量和BiGRU-Attention的混合神经网络意图识别模型。首先使用BERT预训练的词向量作为输入,通过BiGRU对问句进行特征提取,再引入Attention机制提取对句子含义有重要影响力的词的信息以及分配相应的权重,获得融合了词级权重的句子向量,并输入到softmax分类器,实现意图分类。爬取语料实验结果表明,BERT-BiGRU-Attention方法性能均优于传统的模板匹配、SVM和目前效果较好的CNN-LSTM深度学习组合模型。提出的新方法能有效提升意图识别模型的性能,提高在线健康信息服务质量、为在线健康社区问答系统提供技术支撑。 展开更多
关键词 自然语言处理 意图识别 在线健康社区 BERT词向量 BiGRU attention机制
下载PDF
基于Attention-BIGRU-CRF的中文分词模型 被引量:2
6
作者 周慧 徐名海 许晓东 《计算机与现代化》 2022年第8期7-12,19,共7页
自然语言处理是人工智能发展的重要分支,而中文分词是自然语言处理的第一步,提高中文分词的效率可以提高自然语言处理的结果的准确性。因此提出一种Attention-BIGRU-CRF模型,首先将中文文本通过词向量转换,将文本转换成向量的形式,再利... 自然语言处理是人工智能发展的重要分支,而中文分词是自然语言处理的第一步,提高中文分词的效率可以提高自然语言处理的结果的准确性。因此提出一种Attention-BIGRU-CRF模型,首先将中文文本通过词向量转换,将文本转换成向量的形式,再利用BIGRU进行序列化学习,随后引入attention机制将BIGRU的输入和输出进行相关性计算获取更精确向量值,最后将该向量值与BIGRU序列化得到的向量值进行拼接作为CRF层的输入并得到标签预测结果。由仿真结果可知,Attention-BIGRU-CRF模型在人民日报2014和MSRA的语料库得到的F1值分别为97.34%和98.25%,处理文本的分词速率为248.1 KB/s。故融合attention机制和BIGRU-CRF网络的模型既能够提高分词准确率,又能提高分词时间和效率。 展开更多
关键词 自然语言处理 双向门控循环单元 条件随机场 注意力机制 中文分词
下载PDF
改进BERT词向量的BiLSTM-Attention文本分类模型 被引量:7
7
作者 杨兴锐 赵寿为 +2 位作者 张如学 陶叶辉 杨兴俊 《传感器与微系统》 CSCD 北大核心 2023年第10期160-164,共5页
在文本的多分类任务中,基于预训练模型的词向量不能很好地学习到文本多样化信息,降低了文本分类任务的准确率。针对该问题,提出了一种基于残差注意力BERT词向量的BiLSTM-Attention文本分类模型。首先,将输入的文本转化为向量特征,利用... 在文本的多分类任务中,基于预训练模型的词向量不能很好地学习到文本多样化信息,降低了文本分类任务的准确率。针对该问题,提出了一种基于残差注意力BERT词向量的BiLSTM-Attention文本分类模型。首先,将输入的文本转化为向量特征,利用残差注意力BERT模型提取更加丰富的语义特征词向量信息。接着,利用BiLSTM模型提取特征的上下文联系信息,将BERT模型“[CLS]”对应的输出与BiLSTM模型的输出进行拼接,对特征信息进行深度融合,从而实现特征有效利用。在THUNews数据集上进行性能评估,实验结果表明:所提模型在准确率和F1值指标上均优于现有深度学习模型的结果,具有更优的分类效果。 展开更多
关键词 预训练模型 词向量 注意力机制 双向长短期记忆网络 残差网络
下载PDF
基于词嵌入和BiLCNN-Attention混合模型的政务文本分类方法 被引量:1
8
作者 胡文烨 许鸿奎 +1 位作者 郭旭斌 赵京政 《计算机时代》 2023年第6期92-95,102,共5页
针对政务文本分析语境复杂、分类准确率低的问题,提出基于BERT词嵌入和BiLCNN-Attention混合模型的文本分类方法。首先采用BERT模型对政务文本进行词嵌入向量表示,然后混合使用双向长短时记忆网络BiLSTM和卷积神经网络CNN,同时引入注意... 针对政务文本分析语境复杂、分类准确率低的问题,提出基于BERT词嵌入和BiLCNN-Attention混合模型的文本分类方法。首先采用BERT模型对政务文本进行词嵌入向量表示,然后混合使用双向长短时记忆网络BiLSTM和卷积神经网络CNN,同时引入注意力机制进行特征提取,融合了时序特征及局部特征并使特征得到强化,最后使用Softmax进行文本分类。实验表明,BERT词嵌入处理后混合模型的准确率较CNN和BiLSTM模型分别提升了3.9%和2.51%。 展开更多
关键词 政务文本分析 词嵌入 双向长短时记忆网络 卷积神经网络 注意力机制
下载PDF
融合多阶段特征的中文命名实体识别模型
9
作者 杨先凤 范玥 +1 位作者 李自强 汤依磊 《计算机工程与设计》 北大核心 2025年第1期37-43,共7页
针对中文命名实体识别中未充分利用完整的文本表示和语句特征的问题,提出一种融合多阶段特征的中文命名实体识别模型(LM-CNER)。采用全局注意力机制文本融合字符级嵌入与其预训练词向量,同时获取字符级特征和单词级特征。采用翻转长短... 针对中文命名实体识别中未充分利用完整的文本表示和语句特征的问题,提出一种融合多阶段特征的中文命名实体识别模型(LM-CNER)。采用全局注意力机制文本融合字符级嵌入与其预训练词向量,同时获取字符级特征和单词级特征。采用翻转长短时记忆网络(Re-LSTM)进行上下文特征提取,采用多头自注意力机制进行句法分析,并将二者进行拼接。使用条件随机场作为解码器,得到命名实体识别结果。在微博和简历两个数据集上的实验结果表明,该模型能够获取更加准确的文本表示和语句特征,提升模型的实体识别效果。 展开更多
关键词 命名实体识别 翻转长短时记忆网络 注意力机制 编码器 预训练词向量 多阶段特征 条件随机场
下载PDF
基于Word Embedding的遥感影像检测分割 被引量:6
10
作者 尤洪峰 田生伟 +1 位作者 禹龙 吕亚龙 《电子学报》 EI CAS CSCD 北大核心 2020年第1期75-83,共9页
遥感影像检测分割技术通常需提取影像特征并通过深度学习算法挖掘影像的深层特征来实现.然而传统特征(如颜色特征、纹理特征、空间关系特征等)不能充分描述影像语义信息,而单一结构或串联算法无法充分挖掘影像的深层特征和上下文语义信... 遥感影像检测分割技术通常需提取影像特征并通过深度学习算法挖掘影像的深层特征来实现.然而传统特征(如颜色特征、纹理特征、空间关系特征等)不能充分描述影像语义信息,而单一结构或串联算法无法充分挖掘影像的深层特征和上下文语义信息.针对上述问题,本文通过词嵌入将空间关系特征映射成实数密集向量,与颜色、纹理特征的结合.其次,本文构建基于注意力机制下图卷积网络和独立循环神经网络的遥感影像检测分割并联算法(Attention Graph Convolution Networks and Independently Recurrent Neural Network,ATGIR).该算法首先通过注意力机制对结合后的特征进行概率权重分配;然后利用图卷积网络(GCNs)算法对高权重的特征进一步挖掘并生成方向标签,同时使用独立循环神经网络(IndRNN)算法挖掘影像特征中的上下文信息,最后用Sigmoid分类器完成影像检测分割任务.以胡杨林遥感影像检测分割任务为例,我们验证了提出的特征提取方法和ATGIR算法能有效提升胡杨林检测分割任务的性能. 展开更多
关键词 注意力机制 图卷积网络 独立循环神经网络 并联算法 词嵌入
下载PDF
基于Word2Vec和改进注意力机制AlexNet-2的文本分类方法 被引量:13
11
作者 钟桂凤 庞雄文 隋栋 《计算机科学》 CSCD 北大核心 2022年第4期288-293,共6页
为了提高文本分类的准确性和运行效率,提出一种Word2Vec文本表征和改进注意力机制AlexNet-2的文本分类方法。首先,利用Word2Vec对文本词特征进行嵌入表示,并训练词向量,将文本表示成分布式向量的形式;然后,利用改进的AlexNet-2对长距离... 为了提高文本分类的准确性和运行效率,提出一种Word2Vec文本表征和改进注意力机制AlexNet-2的文本分类方法。首先,利用Word2Vec对文本词特征进行嵌入表示,并训练词向量,将文本表示成分布式向量的形式;然后,利用改进的AlexNet-2对长距离词相依性进行有效编码,同时对模型添加注意力机制,以高效学习目标词的上下文嵌入语义,并根据词向量的输入与最终预测结果的相关性,进行词权重的调整。实验在3个公开数据集中进行评估,分析了大量样本标注和少量样本标注的情形。实验结果表明,与已有的优秀方法相比,所提方法可以明显提高文本分类的性能和运行效率。 展开更多
关键词 文本分类 注意力机制 AlexNet-2模型 上下文嵌入 词相依性
下载PDF
High accuracy offering attention mechanisms based deep learning approach using CNN/bi-LSTM for sentiment analysis 被引量:1
12
作者 Venkateswara Rao Kota Shyamala Devi Munisamy 《International Journal of Intelligent Computing and Cybernetics》 EI 2022年第1期61-74,共14页
Purpose-Neural network(NN)-based deep learning(DL)approach is considered for sentiment analysis(SA)by incorporating convolutional neural network(CNN),bi-directional long short-term memory(Bi-LSTM)and attention methods... Purpose-Neural network(NN)-based deep learning(DL)approach is considered for sentiment analysis(SA)by incorporating convolutional neural network(CNN),bi-directional long short-term memory(Bi-LSTM)and attention methods.Unlike the conventional supervised machine learning natural language processing algorithms,the authors have used unsupervised deep learning algorithms.Design/methodology/approach-The method presented for sentiment analysis is designed using CNN,Bi-LSTM and the attention mechanism.Word2vec word embedding is used for natural language processing(NLP).The discussed approach is designed for sentence-level SA which consists of one embedding layer,two convolutional layers with max-pooling,oneLSTMlayer and two fully connected(FC)layers.Overall the system training time is 30 min.Findings-The method performance is analyzed using metrics like precision,recall,F1 score,and accuracy.CNN is helped to reduce the complexity and Bi-LSTM is helped to process the long sequence input text.Originality/value-The attention mechanism is adopted to decide the significance of every hidden state and give a weighted sum of all the features fed as input. 展开更多
关键词 Sentiment analysis NLP Neural networks Bi-LSTM attention mechanism word embedding DROPOUT Fully connected(FC)layer Performance metrics
原文传递
基于语序知识的双通道图卷积网络方面级情感分析
13
作者 黄俊 刘洋 +3 位作者 王庆凤 陈立伟 邱家林 黎茂锋 《计算机应用研究》 CSCD 北大核心 2024年第3期779-785,共7页
当前大多数基于图卷积网络的方面级情感分析方法利用文本的句法知识、语义知识、情感知识构建文本依赖,但少有研究利用文本语序知识构建文本依赖,导致图卷积网络不能有效地利用文本语序知识引导方面项学习上下文情感信息,从而限制了其... 当前大多数基于图卷积网络的方面级情感分析方法利用文本的句法知识、语义知识、情感知识构建文本依赖,但少有研究利用文本语序知识构建文本依赖,导致图卷积网络不能有效地利用文本语序知识引导方面项学习上下文情感信息,从而限制了其性能。针对上述问题,提出基于语序知识的双通道图卷积网络(dual-channel graph convolutional network with word-order knowledge,WKDGCN)模型,该模型由语序图卷积网络(word-order graph convolutional network,WoGCN)和情感知识结合语义知识增强的句法图卷积网络(sentiment and attention-enhanced graph convolutional network,SAGCN)组成。具体地,WoGCN基于文本的语序知识构建图卷积网络,由文本的语序依赖引导方面项特征学习上下文情感信息;SAGCN利用SenticNet中的情感知识结合注意力机制增强句法依赖,利用增强后的句法依赖构建图卷积网络,以此引导方面项特征学习上下文情感信息;最后融合两个图卷积网络的特征用于情感分类。此外,设计了一种权重分配策略,在放大方面项权重的同时保持上下文权重一致,避免错误的计算方面项特征与重要特征的语义相关性。在多个公开数据集上的实验结果表明,所提方法优于对比模型。 展开更多
关键词 方面级情感分析 语序知识 情感信息 注意力机制 句法依赖 图卷积神经网络
下载PDF
基于BERT的两次注意力机制远程监督关系抽取
14
作者 袁泉 陈昌平 +1 位作者 陈泽 詹林峰 《计算机应用》 CSCD 北大核心 2024年第4期1080-1085,共6页
针对词向量语义信息不完整以及文本特征抽取时的一词多义问题,提出基于BERT(Bidirectional Encoder Representation from Transformer)的两次注意力加权算法(TARE)。首先,在词向量编码阶段,通过构建Q、K、V矩阵使用自注意力机制动态编... 针对词向量语义信息不完整以及文本特征抽取时的一词多义问题,提出基于BERT(Bidirectional Encoder Representation from Transformer)的两次注意力加权算法(TARE)。首先,在词向量编码阶段,通过构建Q、K、V矩阵使用自注意力机制动态编码算法,为当前词的词向量捕获文本前后词语义信息;其次,在模型输出句子级特征向量后,利用定位信息符提取全连接层对应参数,构建关系注意力矩阵;最后,运用句子级注意力机制算法为每个句子级特征向量添加不同的注意力分数,提高句子级特征的抗噪能力。实验结果表明:在NYT-10m数据集上,与基于对比学习框架的CIL(Contrastive Instance Learning)算法相比,TARE的F1值提升了4.0个百分点,按置信度降序排列后前100、200和300条数据精准率Precision@N的平均值(P@M)提升了11.3个百分点;在NYT-10d数据集上,与基于注意力机制的PCNN-ATT(Piecewise Convolutional Neural Network algorithm based on ATTention mechanism)算法相比,精准率与召回率曲线下的面积(AUC)提升了4.8个百分点,P@M值提升了2.1个百分点。在主流的远程监督关系抽取(DSER)任务中,TARE有效地提升了模型对数据特征的学习能力。 展开更多
关键词 远程监督 关系抽取 注意力机制 词向量特征 全连接层
下载PDF
基于A-BiLSTM和CNN的文本分类
15
作者 黄远 戴晓红 +2 位作者 黄伟建 于钧豪 黄峥 《计算机工程与设计》 北大核心 2024年第5期1428-1434,共7页
为解决单一神经网络不能获取准确全局文本信息的问题,提出一种基于A-BiLSTM双通道和优化CNN的文本分类模型。A-BiLSTM双通道层使用注意力机制关注对文本分类贡献值较大的部分,并用BiLSTM提取文本中上下文语义信息;A-BiLSTM双通道层中将... 为解决单一神经网络不能获取准确全局文本信息的问题,提出一种基于A-BiLSTM双通道和优化CNN的文本分类模型。A-BiLSTM双通道层使用注意力机制关注对文本分类贡献值较大的部分,并用BiLSTM提取文本中上下文语义信息;A-BiLSTM双通道层中将两者输出的特征信息融合,得到高级语义;A-BiLSTM双通道层后,使用优化CNN的强学习能力提取关键局部特征,得到最终文本特征表示。分类器输出文本信息的类别。实验结果表明,该模型分类效果优于其它对比模型,具有良好的泛化能力。 展开更多
关键词 文本分类 深度学习 双通道网络 注意力机制 双向长短时记忆网络 卷积神经网络 词向量模型
下载PDF
基于位置增强词向量和GRU-CNN的方面级情感分析模型研究 被引量:2
16
作者 陶林娟 华庚兴 李波 《计算机工程与应用》 CSCD 北大核心 2024年第9期212-218,共7页
方面级情感分析旨在判断一段文本中特定方面词的情感倾向,其核心问题是方面词的上下文如何准确表征。与现有研究主要关注注意力机制的改进不同,该文从词语表征和上下文编码模型两个方面进行改进。在词语表征方面,通过BERT模型和位置度... 方面级情感分析旨在判断一段文本中特定方面词的情感倾向,其核心问题是方面词的上下文如何准确表征。与现有研究主要关注注意力机制的改进不同,该文从词语表征和上下文编码模型两个方面进行改进。在词语表征方面,通过BERT模型和位置度量公式获得增强的词向量表示;在上下文编码模型方面,使用GRU-CNN网络提取文本语义特征。在SemEval2014 Task4数据集上的实验表明,提出的模型在Restaurant和Laptop领域中的准确率分别达到了85.54%和80.35%,证实了所提出模型的有效性。 展开更多
关键词 方面级情感分析 卷积神经网络 预训练词向量 位置函数 注意力机制
下载PDF
最近对寻址的专利实体关系抽取方法 被引量:1
17
作者 李成奇 雷海卫 +1 位作者 李帆 呼文秀 《计算机工程与设计》 北大核心 2024年第4期1100-1108,共9页
针对专利领域没有公开数据集的问题,标注一个中文专利实体关系抽取数据集PERD(patent entity relation dataset)。为完成实体关系抽取任务,提出最近对寻址的实体关系抽取模型NPAM(nearest pair addressing entity relationship extracti... 针对专利领域没有公开数据集的问题,标注一个中文专利实体关系抽取数据集PERD(patent entity relation dataset)。为完成实体关系抽取任务,提出最近对寻址的实体关系抽取模型NPAM(nearest pair addressing entity relationship extraction model),实体位置信息获取方法的改进、注意力机制建模矩阵和实体抽取方法的创新,使该模型在PERD上F1值达到72.74%,相比模型PRGC提升12.64个百分点。实验结果验证了该模型的有效性。 展开更多
关键词 实体关系抽取 专利领域 数据集 最近对寻址 注意力机制 关联性矩阵 全词标记
下载PDF
面向中文短语音的文本无关说话人确认新框架
18
作者 毛海全 冯海泓 +3 位作者 洪峰 马皓天 徐楚林 郑立通 《声学技术》 CSCD 北大核心 2024年第4期503-510,共8页
相较于文本相关说话人确认,文本无关说话人确认由于验证文本内容不受限制,结合语音识别能够有效避免录音欺诈等常见攻击。然而,文本无关说话人确认系统在短语音验证上会出现严重的性能下降。为此,文章首先提出了一种改进的端到端模型,... 相较于文本相关说话人确认,文本无关说话人确认由于验证文本内容不受限制,结合语音识别能够有效避免录音欺诈等常见攻击。然而,文本无关说话人确认系统在短语音验证上会出现严重的性能下降。为此,文章首先提出了一种改进的端到端模型,通过长、短语音说话人分类损失增强网络对不同时长语音段的说话人分类识别能力;同时,在嵌入码空间中增大同一说话人的短语音和长语音之间的相似度,减小不同说话人的短语音之间的相似度,增强网络对短语音的特征提取能力。此外,还提出了一种基于注意力机制的验证词选择方法,选择具有高注意力权重的中文词作为系统验证提示词。实验结果表明,文章提出的改进的端到端模型结合softmax预训练使得模型在短测试语音上的等错误率相对降低29%,基于注意力机制的验证词选择方法也能筛选出具有更好识别结果的验证词,二者结合能够有效提升说话人确认系统对于短中文语音的识别性能。 展开更多
关键词 说话人确认 短语音 注意力机制 验证词选择
下载PDF
基于深度学习的微博疫情舆情文本情感分析
19
作者 吴加辉 加云岗 +4 位作者 王志晓 张九龙 闫文耀 高昂 车少鹏 《计算机技术与发展》 2024年第7期175-183,共9页
舆论情感分析重点研究公众对于公共事件的情感偏向,其中涉及公共卫生事件的舆论会直接影响社会稳定,所以对于微博的情感分析尤为重要。该文采取有关疫情方面的文本数据集,使用RoBERTa和BiGRU以及双层Attention结合的RoBERTa-BDA(RoBERTa... 舆论情感分析重点研究公众对于公共事件的情感偏向,其中涉及公共卫生事件的舆论会直接影响社会稳定,所以对于微博的情感分析尤为重要。该文采取有关疫情方面的文本数据集,使用RoBERTa和BiGRU以及双层Attention结合的RoBERTa-BDA(RoBERTa-BiGRU-Double Attention)模型作为整体结构。首先使用RoBERTa获取了蕴含文本上下文信息的词嵌入表示,其次使用BiGRU得到字符表示,然后使用注意力机制计算各个字符对于全局的影响,再使用BiGRU得到句子表示,最后使用Attention机制计算出每个字符对于其所在的句子的权重占比,得出全文的文本表示,并通过softmax函数对其进行情感分析。为了验证RoBERTa-BDA模型的有效性,设计三种实验,在不同词向量对比实验中,RoBERTa对比BERT中Macro F1和Micro F1值提高了0.42百分点和0.84百分点,在不同特征提取层模型对比实验中,BiGRU-Double Attention对比BiGRU-Attention提高了3.62百分点和1.34百分点,在跨平台对比实验中,RoBERTa-BDA在贴吧平台的Macro F1和Micro F1对比微博平台仅仅降低1.29百分点和2.88百分点。 展开更多
关键词 RoBERTa 情感分析 特征提取 词向量 注意力机制 BiGRU
下载PDF
混合特征及多头注意力的中文短文本分类
20
作者 江结林 朱永伟 +2 位作者 许小龙 崔燕 赵英男 《计算机工程与应用》 CSCD 北大核心 2024年第9期237-243,共7页
传统的短文本分类研究方法存在两方面不足,一是不能全面地表示文本的语义信息,二是无法充分地提取和融合文本全局和局部信息。基于此,提出一种混合特征及多头注意力(HF-MHA)的中文短文本分类方法。该方法利用预训练模型计算中文短文本... 传统的短文本分类研究方法存在两方面不足,一是不能全面地表示文本的语义信息,二是无法充分地提取和融合文本全局和局部信息。基于此,提出一种混合特征及多头注意力(HF-MHA)的中文短文本分类方法。该方法利用预训练模型计算中文短文本的字符级向量和词级向量表示,以得到更全面的文本特征向量表示;采用多头注意力机制捕捉文本序列中的依赖关系,以提高文本的语义理解;通过卷积神经网络分别提取两种向量表示的特征,并将其融合为一个特征向量,以整合文本的全局和局部信息;通过输出层得到分类结果。在三个公开数据集上的实验表明,HF-MHA能够有效地提升中文短文本分类的性能。 展开更多
关键词 中文短文本分类 注意力机制 词级向量 字符级向量
下载PDF
上一页 1 2 8 下一页 到第
使用帮助 返回顶部