期刊文献+
共找到6篇文章
< 1 >
每页显示 20 50 100
基于多级注意力机制的大豆期货预测 被引量:3
1
作者 张杰 甄柳琳 翟东升 《系统工程》 CSCD 北大核心 2023年第2期148-158,共11页
考虑影响大豆期货价格的外部因素,针对国内外期货市场间波动的动态相关性特征,提出一种基于多级注意力机制的MAN预测模型(Multistage Attention Network)。模型利用LSTM编码器-解码器结构,整合局部注意力机制与全局注意力机制建模编码器... 考虑影响大豆期货价格的外部因素,针对国内外期货市场间波动的动态相关性特征,提出一种基于多级注意力机制的MAN预测模型(Multistage Attention Network)。模型利用LSTM编码器-解码器结构,整合局部注意力机制与全局注意力机制建模编码器,使用时间注意力机制与外部影响因素融合模块建模解码器,据此建立深度学习框架。以中国、美国、巴西、日本大豆期货为研究对象,提取国内外大豆期货历史交易信息及外部影响因素的潜在特征,用于对我国大豆期货收盘价的预测。通过实证研究验证了MAN模型的性能及预测的有效性。 展开更多
关键词 大豆期货 预测模型 多级注意力机制 Encoder-Decoder结构
原文传递
基于多级注意力融合机制的藏文实体关系抽取 被引量:2
2
作者 王丽客 孙媛 刘思思 《智能科学与技术学报》 2021年第4期466-473,共8页
与中英文相比,藏文实体关系训练语料规模较小,传统有监督的学习方法难以获得较高的准确率。针对基于远程监督的实体关系抽取存在错误标记的问题,利用远程监督方法将知识库与文本对齐,构建藏文实体关系抽取的数据集,提出一个基于多级注... 与中英文相比,藏文实体关系训练语料规模较小,传统有监督的学习方法难以获得较高的准确率。针对基于远程监督的实体关系抽取存在错误标记的问题,利用远程监督方法将知识库与文本对齐,构建藏文实体关系抽取的数据集,提出一个基于多级注意力融合机制的藏文实体关系抽取模型。在词级别引入自注意力机制来提取单词的内部特征,在句子级别引入注意力机制为每个实例分配权重,从而充分利用包含信息的句子,减少噪声实例的权重。同时引入联合评分函数,修正远程监督的错误标签,并将神经网络与支持向量机结合,实现藏文实体关系分类。实验结果表明,提出的模型有效提高了藏文实体关系抽取的准确率,且优于基线模型效果。 展开更多
关键词 藏文 实体关系抽取 多级注意力融合机制 支持向量机
下载PDF
基于上下文增强的多级注意力会话推荐模型
3
作者 曾碧卿 池俊龙 +1 位作者 陈嘉涛 谢梁琦 《中国科学:信息科学》 CSCD 北大核心 2024年第9期2116-2135,共20页
会话推荐的目标是仅根据用户在匿名会话中有限的交互行为,来预测用户的下一次点击行为.最近几年,许多基于图神经网络的会话推荐方法取得了可喜的结果.然而,这些方法仍然存在不足之处.一方面,基于图神经网络的方法只考虑物品之间的转换模... 会话推荐的目标是仅根据用户在匿名会话中有限的交互行为,来预测用户的下一次点击行为.最近几年,许多基于图神经网络的会话推荐方法取得了可喜的结果.然而,这些方法仍然存在不足之处.一方面,基于图神经网络的方法只考虑物品之间的转换模式,忽略了会话中的序列模式.另一方面,现有的大多数方法都只关注当前会话内部的信息,忽略了来自邻居会话的外部协作信息,即上下文模式.为了解决上述问题,本文提出了一种新颖的基于上下文增强的多级注意力会话推荐模型(CEMA),通过多级注意力机制分别在物品级和会话级这两个粒度上学习物品特征和建模用户偏好,以增强模型的个性化推荐能力.CEMA模型利用多层GraphSAGE来学习物品之间复杂的转换模式,以捕获用户的局部偏好.特别地,在CEMA模型中设计了一种物品级注意力机制,通过门控注意力单元计算会话中不同物品的重要性,以识别用户真正感兴趣的物品,避免噪声物品的干扰.这有助于准确地捕获会话的序列模式,以建模用户的全局偏好.此外,所提出的方法还设计了一种会话级注意力机制,通过简单的软注意力高效地计算不同会话之间的相似度,以聚焦于那些与当前会话最相似的邻居会话,并从中提取上下文模式,以帮助预测用户的下一次点击.本文在3个公开的基准数据集上进行了一系列实验,实验结果表明CEMA的推荐性能超过了现有最好的方法,充分验证了CEMA的有效性和优越性. 展开更多
关键词 会话推荐 多级注意力机制 图神经网络 序列模式 上下文模式
原文传递
基于改进YOLOv7的换热器板片故障检测算法研究
4
作者 王伯涛 周福强 +1 位作者 吴国新 王少红 《机床与液压》 北大核心 2024年第11期105-113,共9页
针对换热器板片装配检测成本高、检测精度低等问题,提出一种改进的YOLOv7算法检测换热器板片的装反问题。在原始数据集上采用限制对比度自适应直方图均衡化对图像进行处理,提高待检测图像的清晰度;在YOLOv7模型原有基础上,针对换热器板... 针对换热器板片装配检测成本高、检测精度低等问题,提出一种改进的YOLOv7算法检测换热器板片的装反问题。在原始数据集上采用限制对比度自适应直方图均衡化对图像进行处理,提高待检测图像的清晰度;在YOLOv7模型原有基础上,针对换热器板片层数较多、模糊且噪点多,提出一种多级自适应注意力机制添加至Backbone最后一层;针对图像识别模型计算量大、下采样特征损失严重,采用改进的MP-D模块优化原有的下采样模块;针对特征提取部分,加入F-ReLU激活函数,使得计算速度和检测准确性有了明显提高;针对Neck部分的PANet结构,融合BiFPN跨尺度连接的思想,进一步提高融合的效率和准确性。通过实验可得,改进后的网络模型和初始YOLOv7相比,mAP@0.5、召回率R、检测速度分别提高0.6%、2%、16.9帧/s,针对换热器板片检测具有良好效果。 展开更多
关键词 换热器板片 YOLOv7 多级自适应注意力机制 MP-D模块 BiFPN
下载PDF
Swin-T与ConvNeXt多级融合的皮肤病变分类
5
作者 王泽彤 张俊华 王肖 《生物医学工程学杂志》 EI CAS 北大核心 2024年第3期544-551,共8页
皮肤癌是一个重要的公共卫生问题,计算机辅助诊断技术可以有效地减轻这一负担。在采用计算机辅助诊断时,准确识别皮肤病变类型至关重要。为此,本文提出一种基于Swin-T与ConvNeXt的多级注意力逐级融合模型,采用分层Swin-T与ConvNeXt分别... 皮肤癌是一个重要的公共卫生问题,计算机辅助诊断技术可以有效地减轻这一负担。在采用计算机辅助诊断时,准确识别皮肤病变类型至关重要。为此,本文提出一种基于Swin-T与ConvNeXt的多级注意力逐级融合模型,采用分层Swin-T与ConvNeXt分别提取全局与局部特征,并提出残差通道注意力与空间注意力模块进一步提取有效特征;利用多级注意力机制对多尺度全局与局部特征进行处理;针对浅层特征因离分类器较远而丢失的问题,采用逐级聚合的思想,提出逐级倒置残差融合模块动态调整提取的特征信息。本文通过均衡采样策略以及焦点损失,解决皮肤病变类别不平衡的问题。在ISIC2018、ISIC2019数据集上进行测试,其准确率、精确率、召回率和F1-Score分别是96.01%、93.67%、92.65%、93.11%与92.79%、91.52%、88.90%、90.15%。与Swin-T相比,准确率分别提升了3.60%和1.66%;与ConvNeXt相比,准确率分别提升了2.87%和3.45%。实验表明,本文提出的方法能够准确分类皮肤病变图像,为皮肤癌的诊断提供了新的解决方案。 展开更多
关键词 Swin-T ConvNeXt 多级注意力机制 逐级倒置残差融合模块 皮肤病变图像
原文传递
Multi-head attention-based long short-term memory model for speech emotion recognition 被引量:1
6
作者 Zhao Yan Zhao Li +3 位作者 Lu Cheng Li Sunan Tang Chuangao Lian Hailun 《Journal of Southeast University(English Edition)》 EI CAS 2022年第2期103-109,共7页
To fully make use of information from different representation subspaces,a multi-head attention-based long short-term memory(LSTM)model is proposed in this study for speech emotion recognition(SER).The proposed model ... To fully make use of information from different representation subspaces,a multi-head attention-based long short-term memory(LSTM)model is proposed in this study for speech emotion recognition(SER).The proposed model uses frame-level features and takes the temporal information of emotion speech as the input of the LSTM layer.Here,a multi-head time-dimension attention(MHTA)layer was employed to linearly project the output of the LSTM layer into different subspaces for the reduced-dimension context vectors.To provide relative vital information from other dimensions,the output of MHTA,the output of feature-dimension attention,and the last time-step output of LSTM were utilized to form multiple context vectors as the input of the fully connected layer.To improve the performance of multiple vectors,feature-dimension attention was employed for the all-time output of the first LSTM layer.The proposed model was evaluated on the eNTERFACE and GEMEP corpora,respectively.The results indicate that the proposed model outperforms LSTM by 14.6%and 10.5%for eNTERFACE and GEMEP,respectively,proving the effectiveness of the proposed model in SER tasks. 展开更多
关键词 speech emotion recognition long short-term memory(LSTM) multi-head attention mechanism frame-level features self-attention
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部