针对现有生成对抗网络的单图像超分辨率重建在大尺度因子下存在训练不稳定、特征提取不足和重建结果纹理细节严重缺失的问题,提出一种拆分注意力网络的单图超分辨率重建方法。首先,以拆分注意力残差模块作为基本残差块构造生成器,提高...针对现有生成对抗网络的单图像超分辨率重建在大尺度因子下存在训练不稳定、特征提取不足和重建结果纹理细节严重缺失的问题,提出一种拆分注意力网络的单图超分辨率重建方法。首先,以拆分注意力残差模块作为基本残差块构造生成器,提高生成器特征提取的能力。其次,在损失函数中引入鲁棒性更好的Charbonnier损失函数和Focal Frequency Loss损失函数代替均方差损失函数,同时加入正则化损失平滑训练结果,防止图像过于像素化。最后,在生成器和判别器中采用谱归一化处理,提高网络的稳定性。在4倍放大因子下,与其他方法在Set5、Set14、BSDS100、Urban100测试集上进行测试比较,本文方法的峰值信噪比比其他对比方法的平均值提升1.419 dB,结构相似性比其他对比方法的平均值提升0.051。实验数据和效果图表明,该方法主观上具有丰富的细节和更好的视觉效果,客观上具有较高的峰值信噪比值和结构相似度值。展开更多
现有的大多数研究者使用循环神经网络与注意力机制相结合的方法进行方面级情感分类任务。然而,循环神经网络不能并行计算,并且模型在训练过程中会出现截断的反向传播、梯度消失和梯度爆炸等问题,传统的注意力机制可能会给句子中重要情...现有的大多数研究者使用循环神经网络与注意力机制相结合的方法进行方面级情感分类任务。然而,循环神经网络不能并行计算,并且模型在训练过程中会出现截断的反向传播、梯度消失和梯度爆炸等问题,传统的注意力机制可能会给句子中重要情感词分配较低的注意力权重。针对上述问题,该文提出了一种融合Transformer和交互注意力网络的方面级情感分类模型。首先利用BERT(bidirectional encoder representation from Transformers)预训练模型来构造词嵌入向量,然后使用Transformer编码器对输入的句子进行并行编码,接着使用上下文动态掩码和上下文动态权重机制来关注与特定方面词有重要语义关系的局部上下文信息。最后在5个英文数据集和4个中文评论数据集上的实验结果表明,该文所提模型在准确率和F1上均表现最优。展开更多
兴趣点(Point-Of-Interest,POI)推荐是基于位置的社交网络(Location-based Social Networks,LBSNs)研究中最重要的任务之一。为了解决POI推荐中的空间稀疏性问题,提出一种用于位置推荐的长短期偏好时空注意力网络(LSAN)。首先,构建了签...兴趣点(Point-Of-Interest,POI)推荐是基于位置的社交网络(Location-based Social Networks,LBSNs)研究中最重要的任务之一。为了解决POI推荐中的空间稀疏性问题,提出一种用于位置推荐的长短期偏好时空注意力网络(LSAN)。首先,构建了签到序列的时空关系矩阵,使用多头注意力机制从中提取非连续签到和非相邻位置中的时空相关性,缓解签到数据稀疏所带来的困难。其次,在模型中设置用户短期偏好和长期偏好提取模块,自适应的将二者结合在一起,考虑了用户偏好对用户决策影响。最后,在Foursquare数据集上进行测试,并与其它模型结果进行对比,证实了提出的LSAN模型结果最优。研究表明LSAN模型能够获得最佳的推荐效果,为POI推荐提供新思路。展开更多
文摘针对现有生成对抗网络的单图像超分辨率重建在大尺度因子下存在训练不稳定、特征提取不足和重建结果纹理细节严重缺失的问题,提出一种拆分注意力网络的单图超分辨率重建方法。首先,以拆分注意力残差模块作为基本残差块构造生成器,提高生成器特征提取的能力。其次,在损失函数中引入鲁棒性更好的Charbonnier损失函数和Focal Frequency Loss损失函数代替均方差损失函数,同时加入正则化损失平滑训练结果,防止图像过于像素化。最后,在生成器和判别器中采用谱归一化处理,提高网络的稳定性。在4倍放大因子下,与其他方法在Set5、Set14、BSDS100、Urban100测试集上进行测试比较,本文方法的峰值信噪比比其他对比方法的平均值提升1.419 dB,结构相似性比其他对比方法的平均值提升0.051。实验数据和效果图表明,该方法主观上具有丰富的细节和更好的视觉效果,客观上具有较高的峰值信噪比值和结构相似度值。
文摘现有的大多数研究者使用循环神经网络与注意力机制相结合的方法进行方面级情感分类任务。然而,循环神经网络不能并行计算,并且模型在训练过程中会出现截断的反向传播、梯度消失和梯度爆炸等问题,传统的注意力机制可能会给句子中重要情感词分配较低的注意力权重。针对上述问题,该文提出了一种融合Transformer和交互注意力网络的方面级情感分类模型。首先利用BERT(bidirectional encoder representation from Transformers)预训练模型来构造词嵌入向量,然后使用Transformer编码器对输入的句子进行并行编码,接着使用上下文动态掩码和上下文动态权重机制来关注与特定方面词有重要语义关系的局部上下文信息。最后在5个英文数据集和4个中文评论数据集上的实验结果表明,该文所提模型在准确率和F1上均表现最优。
文摘兴趣点(Point-Of-Interest,POI)推荐是基于位置的社交网络(Location-based Social Networks,LBSNs)研究中最重要的任务之一。为了解决POI推荐中的空间稀疏性问题,提出一种用于位置推荐的长短期偏好时空注意力网络(LSAN)。首先,构建了签到序列的时空关系矩阵,使用多头注意力机制从中提取非连续签到和非相邻位置中的时空相关性,缓解签到数据稀疏所带来的困难。其次,在模型中设置用户短期偏好和长期偏好提取模块,自适应的将二者结合在一起,考虑了用户偏好对用户决策影响。最后,在Foursquare数据集上进行测试,并与其它模型结果进行对比,证实了提出的LSAN模型结果最优。研究表明LSAN模型能够获得最佳的推荐效果,为POI推荐提供新思路。
文摘针对复杂因果句实体密度高、句式冗长等特点导致的外部信息不足和信息传递遗忘问题,提出一种基于提示增强与双图注意力网络(BiGAT)的复杂因果关系抽取模型PE-BiGAT(PromptEnhancementandBi-Graph Attention Network)。首先,抽取句子中的结果实体并与提示学习模板组成提示信息,再通过外部知识库增强提示信息;其次,将提示信息输入BiGAT,同时结合关注层与句法和语义依存图,并利用双仿射注意力机制缓解特征重叠的情况,增强模型对关系特征的感知能力;最后,用分类器迭代预测句子中的所有因果实体,并通过评分函数分析句子中所有的因果对。在SemEval-2010 task 8和AltLex数据集上的实验结果表明,与RPA-GCN(Relationship Position and Attention-Graph Convolutional Network)相比,所提模型的F1值提高了1.65个百分点,其中在链式因果和多因果句中分别提高了2.16和4.77个百分点,验证了所提模型在处理复杂因果句时更具优势。