期刊文献+
共找到10篇文章
< 1 >
每页显示 20 50 100
基于注意力卷积长短时记忆模型的城市出租车流量预测
1
作者 周新民 金江涛 +2 位作者 鲍娜娜 袁涛 崔烨 《中国安全科学学报》 CAS CSCD 北大核心 2024年第7期153-162,共10页
为解决城市交通拥堵和安全问题,提出一种注意力卷积长短时记忆(ConvLSTM)残差(ACLR)模型,该模型通过结合ConvLSTM、注意力机制和残差结构,分别处理出租车流量的时间、空间、和其他特征,挖掘区域兴趣点(POI)数据对出租车流量的影响,有效... 为解决城市交通拥堵和安全问题,提出一种注意力卷积长短时记忆(ConvLSTM)残差(ACLR)模型,该模型通过结合ConvLSTM、注意力机制和残差结构,分别处理出租车流量的时间、空间、和其他特征,挖掘区域兴趣点(POI)数据对出租车流量的影响,有效提升交通时空特征的提取能力。同时,引入专门的学习元件考虑外部因素和POI密度对交通流量的影响,并利用北京市出租车轨迹数据验证。结果表明:ACLR模型在城市交通流预测中的精度高于差分自回归滑动平均(ARIMA)模型、长短时记忆(LSTM)网络、深度时空残差网络(ST-ResNet)、卷积神经网络(CNN)-残差神经单元-LSTM(CRL)循环神经网络、ACFM等模型,在无POI密度和考虑POI密度的情况下,均有助于提升模型的预测性能,ACLA模型的预测值与真实值基本一致,高峰时段也能与真实值较好地吻合,有效提升交通时空特征的提取能力,降低预测误差,使得交通流量预测性能得到优化。 展开更多
关键词 注意力卷积长短时记忆残差网络(ACLR)模型 交通流量预测 城市出租车 时空特征 残差结构
下载PDF
用于关系抽取的注意力图长短时记忆神经网络 被引量:8
2
作者 张勇 高大林 +1 位作者 巩敦卫 陶一凡 《智能系统学报》 CSCD 北大核心 2021年第3期518-527,共10页
关系抽取是信息获取中一项关键技术。句子结构树能够捕获单词之间的长距离依赖关系,已被广泛用于关系抽取任务中。但是,现有方法存在过度依赖句子结构树本身信息而忽略外部信息的不足。本文提出一种新型的图神经网络模型,即注意力图长... 关系抽取是信息获取中一项关键技术。句子结构树能够捕获单词之间的长距离依赖关系,已被广泛用于关系抽取任务中。但是,现有方法存在过度依赖句子结构树本身信息而忽略外部信息的不足。本文提出一种新型的图神经网络模型,即注意力图长短时记忆神经网络(attention graph long short term memory neural network,AGLSTM)。该模型采用一种软修剪策略自动学习对关系抽取有用的句子结构信息;通过引入注意力机制,结合句法图信息学习句子的结构特征;并设计一种新型的图长短时记忆神经网络,使得模型能够更好地融合句法图信息和句子的时序信息。与10种典型的关系抽取方法进行对比,实验验证了该模型的优异性能。 展开更多
关键词 关系抽取 句子结构树 句法图 图神经网络 注意力图长短时记忆神经网络 软修剪策略 注意力机制 长短时记忆神经网络
下载PDF
确定性网络5G-A终端时延预测
3
作者 刘壮 盛志超 +2 位作者 魏浩 余鸿文 方勇 《无线电工程》 2024年第4期1034-1042,共9页
工业控制场景下5G-A终端传输时延是确定性网络能力的直接表征之一,时延预测对提高网络确定性至关重要。由于传输时延序列的不稳定性和随机性,单一模型难以准确预测。针对该问题,提出一种基于优化变分模态分解(Variational Mode Decompos... 工业控制场景下5G-A终端传输时延是确定性网络能力的直接表征之一,时延预测对提高网络确定性至关重要。由于传输时延序列的不稳定性和随机性,单一模型难以准确预测。针对该问题,提出一种基于优化变分模态分解(Variational Mode Decomposition, VMD)和卷积注意力长短时记忆网络(Convolutional Attention Long Short Term Memory Network, CA-LSTM)的传输时延预测方法。为提高VMD的分解性能,利用相关系数检验法确定时延序列分解的模态数,并利用蝗虫优化寻优分解的惩罚因子和保真度系数;设计CA-LSTM网络,借助卷积滤波器以及注意力机制使得网络具备分辨时延特征重要程度的能力;将各模态预测值重建成一维时延值得到预测结果。实验研究结果表明,优化VDM能够将5G终端传输时延序列有效分解,结合CA-LSTM模型相比于经典LSTM在MSE、RMSE和MAE上分别提升了37.1%、21.3%和23.6%。 展开更多
关键词 5G时延 变分模态分解 相关系数 蝗虫优化算法 卷积注意力长短时记忆网络
下载PDF
融合单语翻译记忆的神经机器翻译方法
4
作者 王兵 叶娜 蔡东风 《沈阳航空航天大学学报》 2023年第2期74-82,共9页
与以往使用双语语料库作为翻译记忆(Translation Memory,TM)并采用源端相似度搜索进行记忆检索,进而将检索到的相似句对与神经机器翻译(Neural Machine Translation,NMT)模型融合的这种分阶段进行的方法不同,提出一种新的融合框架,即基... 与以往使用双语语料库作为翻译记忆(Translation Memory,TM)并采用源端相似度搜索进行记忆检索,进而将检索到的相似句对与神经机器翻译(Neural Machine Translation,NMT)模型融合的这种分阶段进行的方法不同,提出一种新的融合框架,即基于跨语言注意力记忆网络的神经机器翻译模型,该模型使用单语翻译记忆即目标语言句子作为TM,并以跨语言的方式执行可学习的检索。该框架具有一定的优势:第一,跨语言注意力记忆网络允许单语句子作为TM,适合于双语语料缺乏的低资源场景;第二,跨语言注意力记忆网络和NMT模型可以为最终的翻译目标进行联合优化,实现一体化训练。实验表明,所提出的方法在4个翻译任务上取得了较好的效果,在双语资源稀缺的专业领域中也表现出其在低资源场景下的有效性。 展开更多
关键词 神经机器翻译 单语翻译记忆 跨语言注意力记忆网络 低资源领域 Transformer模型
下载PDF
基于ALSTM-MHA的航空发动机寿命预测
5
作者 修瑞 丁建完 +1 位作者 刘笑炎 高创 《机床与液压》 北大核心 2024年第12期187-192,共6页
为了提升剩余寿命预测任务的精度,提出一种基于注意力长短时记忆网络和多头自注意力机制(ALSTM-MHA)的剩余寿命预测模型,在利用数据时序性的条件下提取特征维度的重要程度以及时间维度的相关性信息。使用C-MAPSS数据集对模型进行实验验... 为了提升剩余寿命预测任务的精度,提出一种基于注意力长短时记忆网络和多头自注意力机制(ALSTM-MHA)的剩余寿命预测模型,在利用数据时序性的条件下提取特征维度的重要程度以及时间维度的相关性信息。使用C-MAPSS数据集对模型进行实验验证,并与其他方法进行对比。结果表明:ALSTM-MHA模型能够有效地提取特征及时间维度上的注意力信息,与其他方法相比,它在均方根误差和非对称评价指标上分别降低了至少0.3%和20.48%,验证了模型的可行性和有效性。 展开更多
关键词 航空发动机 注意力长短时记忆网络 多头自注意力机制 剩余寿命预测
下载PDF
基于知识图谱的推荐算法研究
6
作者 薛艳斌 王宏生 《长江信息通信》 2023年第6期96-98,共3页
将知识图谱作为外部信息引入推荐系统可以有效缓解推荐系统的数据稀疏问题。文章提出一种端到端的神经网络模型,文章使用一种图注意力机制取代基于相似度或交换矩阵计算的离线元路径方法;另外,根据知识图谱中的项目的不同实体类型,文章... 将知识图谱作为外部信息引入推荐系统可以有效缓解推荐系统的数据稀疏问题。文章提出一种端到端的神经网络模型,文章使用一种图注意力机制取代基于相似度或交换矩阵计算的离线元路径方法;另外,根据知识图谱中的项目的不同实体类型,文章提出一种多视图记忆注意力网络去学习更深层次的项目表征。文章在MovieLens数据集上进行了实验,实验结果表明,本文的模型明显优于Top-N推荐基线模型。 展开更多
关键词 推荐系统 知识图谱 注意力机制 记忆注意力网络
下载PDF
基于TCNN-MADLSTM的全并联AT牵引网多元信号融合故障定位
7
作者 周欢 陈剑云 +2 位作者 万若安 傅钦翠 李泽文 《中国铁道科学》 EI CAS CSCD 北大核心 2023年第4期206-218,共13页
全并联AT牵引供电系统上下行线路并入自耦变压器,致使故障信号多路径传播,且牵引网导线阻抗不连续,传统方法很难实现牵引网故障准确定位。基于AT牵引网结构,推导牵引网上下行导线故障电流幅值与故障距离的非线性关系;基于改进的卷积神... 全并联AT牵引供电系统上下行线路并入自耦变压器,致使故障信号多路径传播,且牵引网导线阻抗不连续,传统方法很难实现牵引网故障准确定位。基于AT牵引网结构,推导牵引网上下行导线故障电流幅值与故障距离的非线性关系;基于改进的卷积神经网络(Transformer-based CNN,TCNN)和记忆注意力解耦长短期记忆神经网络(Memory Attended Decoupled LSTM,MADLSTM),通过增加注意力机制和残差连接,增强多导线电流幅值与故障距离的非线性函数关系,从而提高牵引网故障定位的精度;将前述方法与传统的卷积神经网络(CNN)和长短期记忆神经网络(LSTM)进行不同噪声条件下的对比验证。结果表明:基于TCNN+MADLSTM算法进行故障定位时,可自适应构建故障距离与多导线电流幅值的非线性函数关系,以及自适应计算故障距离,无须考虑波速影响;相较于传统的CNN+LSTM算法,TCNN+MADLSTM算法故障定位精度更高,故障区段识别精度可达100%,故障定位精度达72.100 m,均方误差为0.016 km^(2)。 展开更多
关键词 全并联AT牵引供电系统 故障定位 改进的卷积神经网络 记忆注意力解耦长短期记忆神经网络
下载PDF
一种改进的Attention-Based LSTM特征选择模型 被引量:13
8
作者 朱星嘉 李红莲 +2 位作者 吕学强 周建设 夏红科 《北京信息科技大学学报(自然科学版)》 2018年第2期54-59,共6页
为了对高校学术活动进行信息提取和文本分类,基于结合注意力机制的长短期记忆网络(Attention-Based Long Short-Term Memory)特征选择模型,构建了高校学术活动分类系统。通过大量分析高校学术活动语料的特点,准确抽取学术活动的相关内容... 为了对高校学术活动进行信息提取和文本分类,基于结合注意力机制的长短期记忆网络(Attention-Based Long Short-Term Memory)特征选择模型,构建了高校学术活动分类系统。通过大量分析高校学术活动语料的特点,准确抽取学术活动的相关内容,改善了文本数据质量;提出了一种改进的Attention-Based LSTM特征选择模型,降低了数据维度,有效地突出了重点信息。实验结果表明,该方法提高了分类的准确率,其分类效果明显优于普通LSTM(Long Short-Term Memory)模型和传统模型的处理结果。 展开更多
关键词 高校学术活动 信息提取 文本分类 结合注意力机制的长短期记忆网络 重点信息
下载PDF
A multi-attention RNN-based relation linking approach for question answering over knowledge base 被引量:1
9
作者 Li Huiying Zhao Man Yu Wenqi 《Journal of Southeast University(English Edition)》 EI CAS 2020年第4期385-392,共8页
Aiming at the relation linking task for question answering over knowledge base,especially the multi relation linking task for complex questions,a relation linking approach based on the multi-attention recurrent neural... Aiming at the relation linking task for question answering over knowledge base,especially the multi relation linking task for complex questions,a relation linking approach based on the multi-attention recurrent neural network(RNN)model is proposed,which works for both simple and complex questions.First,the vector representations of questions are learned by the bidirectional long short-term memory(Bi-LSTM)model at the word and character levels,and named entities in questions are labeled by the conditional random field(CRF)model.Candidate entities are generated based on a dictionary,the disambiguation of candidate entities is realized based on predefined rules,and named entities mentioned in questions are linked to entities in knowledge base.Next,questions are classified into simple or complex questions by the machine learning method.Starting from the identified entities,for simple questions,one-hop relations are collected in the knowledge base as candidate relations;for complex questions,two-hop relations are collected as candidates.Finally,the multi-attention Bi-LSTM model is used to encode questions and candidate relations,compare their similarity,and return the candidate relation with the highest similarity as the result of relation linking.It is worth noting that the Bi-LSTM model with one attentions is adopted for simple questions,and the Bi-LSTM model with two attentions is adopted for complex questions.The experimental results show that,based on the effective entity linking method,the Bi-LSTM model with the attention mechanism improves the relation linking effectiveness of both simple and complex questions,which outperforms the existing relation linking methods based on graph algorithm or linguistics understanding. 展开更多
关键词 question answering over knowledge base(KBQA) entity linking relation linking multi-attention bidirectional long short-term memory(Bi-LSTM) large-scale complex question answering dataset(LC-QuAD)
下载PDF
深度学习在钢结构货架变形预测中的应用研究
10
作者 魏来 张雅晨 +1 位作者 潘健 胡一清 《山西建筑》 2025年第2期28-32,43,共6页
随着工业化和物流行业的发展,钢结构货架在仓储和物流系统中越来越重要,因此准确预测其变形至关重要。文章介绍了一种基于双向长短时记忆网络(BiLSTM)和注意力机制的预测算法,该算法利用时间序列数据,通过深度学习模型进行训练,能够更... 随着工业化和物流行业的发展,钢结构货架在仓储和物流系统中越来越重要,因此准确预测其变形至关重要。文章介绍了一种基于双向长短时记忆网络(BiLSTM)和注意力机制的预测算法,该算法利用时间序列数据,通过深度学习模型进行训练,能够更细致地分析和预测钢结构货架的变形。结合一个典型应用验证了模型性能,证实了其高稳健性和出色的预测精度。实验结果表明,该模型能够准确地预测钢结构货架的变形情况,其平均误差仅为0.15%~3.33%。这些结果表明了该算法在钢结构货架自动化监测领域的潜在应用前景,为其结构变形预测提供了一种可行的解决方案。 展开更多
关键词 自动化监测 深度学习 时间序列数据 双向长短时记忆网络注意力机制(BiLSTM-Attention)
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部