期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
3
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于层级注意力机制的链接预测模型研究
被引量:
6
1
作者
赵晓娟
贾焰
+1 位作者
李爱平
陈恺
《通信学报》
EI
CSCD
北大核心
2021年第3期36-44,共9页
为了解决已有图注意力机制在进行链接预测相关任务时,容易造成注意力分配向某些出现频率高的关系倾斜的问题,提出了一种基于层级注意力机制的链接预测模型。在链接预测任务中,通过设计分层注意力机制,根据预测任务中的关系对知识图谱中...
为了解决已有图注意力机制在进行链接预测相关任务时,容易造成注意力分配向某些出现频率高的关系倾斜的问题,提出了一种基于层级注意力机制的链接预测模型。在链接预测任务中,通过设计分层注意力机制,根据预测任务中的关系对知识图谱中与给定实体相连的不同类型的关系给予不同的注意力。在关注多跳邻居实体特征的同时,更关注关系特征以找到符合目标关系的关系类型。在多个基准数据集上与主流模型进行对比实验,实验结果表明,所提模型性能优于主流模型,并具有较好的稳健性。
展开更多
关键词
层级注意力机制
链接预测
知识图谱嵌入
下载PDF
职称材料
基于层级注意力机制与双向长短期记忆神经网络的智能合约自动分类模型
被引量:
7
2
作者
吴雨芯
蔡婷
张大斌
《计算机应用》
CSCD
北大核心
2020年第4期978-984,共7页
针对区块链平台上智能合约应用种类繁多,人工筛选合适的智能合约应用服务日益困难的问题,提出一种基于层级注意力机制与双向长短期记忆(Bi-LSTM)神经网络的智能合约自动分类模型——HANN-SCA。首先,利用Bi-LSTM网络从智能合约源代码和...
针对区块链平台上智能合约应用种类繁多,人工筛选合适的智能合约应用服务日益困难的问题,提出一种基于层级注意力机制与双向长短期记忆(Bi-LSTM)神经网络的智能合约自动分类模型——HANN-SCA。首先,利用Bi-LSTM网络从智能合约源代码和账户信息两个角度同时建模,最大限度地提取智能合约的特征信息。其中源代码角度关注智能合约中的代码语义特征,账户信息角度关注智能合约的账户特征。然后,在特征学习过程中从词层面和句层面分别引入注意力机制,重点捕获对智能合约分类有重要意义的单词和句子。最后,拼接代码特征与账户特征以生成智能合约文档级特征表示,通过Softmax层完成分类任务。实验结果表明,所提模型在Dataset-E、Dataset-N和Dataset-EO数据集上的分类正确率分别达到了93.1%、91.7%和92.1%,效果明显优于传统的支持向量机模型(SVM)和其他神经网络基准模型,且具有更好的稳定性与更高的收敛速度。
展开更多
关键词
智能合约分类
层级注意力机制
双向长短期记忆网络
代码语义特征
账户特征
下载PDF
职称材料
利用层级交互注意力的文本摘要方法
3
作者
黄于欣
余正涛
+2 位作者
相艳
高盛祥
郭军军
《计算机科学与探索》
CSCD
北大核心
2020年第10期1681-1692,共12页
基于注意力机制的编解码模型在文本摘要、机器翻译等序列到序列任务上得到了广泛的应用。在深度学习框架中,深层神经网络能够提取输入数据不同的特征表示,因此传统编解码模型中通常堆叠多层解码器来提高模型性能。然而现有的模型在解码...
基于注意力机制的编解码模型在文本摘要、机器翻译等序列到序列任务上得到了广泛的应用。在深度学习框架中,深层神经网络能够提取输入数据不同的特征表示,因此传统编解码模型中通常堆叠多层解码器来提高模型性能。然而现有的模型在解码时仅利用编码器最后一层信息,而忽略编码器其余层的特征。鉴于此,提出一种基于多层循环神经网络和层级交互注意力机制的摘要生成模型,通过层级交互注意力提取编码器不同层次的特征信息来指导摘要的生成。为了处理因引入不同层次特征而带来的信息冗余问题,引入变分信息瓶颈压缩数据噪声。最后在Gigaword和DUC2004摘要数据集上进行实验,结果表明所提方法能够获得最佳性能。
展开更多
关键词
文本摘要
编解码模型
层级
交互
注意力
机制
变分信息瓶颈
下载PDF
职称材料
题名
基于层级注意力机制的链接预测模型研究
被引量:
6
1
作者
赵晓娟
贾焰
李爱平
陈恺
机构
国防科技大学计算机学院
湖南工业大学商学院
出处
《通信学报》
EI
CSCD
北大核心
2021年第3期36-44,共9页
基金
国家重点研发计划基金资助项目(No.2017YFB0802204,No.2016QY03D0603,No.2016QY03D0601,No.2017YFB0803301,No.2019QY1406)
广东省重点研发计划基金资助项目(No.2019B010136003)
+2 种基金
国家自然科学基金资助项目(No.61732004,No.61732022,No.61672020)
湖南省重点研发计划基金资助项目(No.2018GK2056)
湖南省教育厅科研基金资助项目(No.19C0597)。
文摘
为了解决已有图注意力机制在进行链接预测相关任务时,容易造成注意力分配向某些出现频率高的关系倾斜的问题,提出了一种基于层级注意力机制的链接预测模型。在链接预测任务中,通过设计分层注意力机制,根据预测任务中的关系对知识图谱中与给定实体相连的不同类型的关系给予不同的注意力。在关注多跳邻居实体特征的同时,更关注关系特征以找到符合目标关系的关系类型。在多个基准数据集上与主流模型进行对比实验,实验结果表明,所提模型性能优于主流模型,并具有较好的稳健性。
关键词
层级注意力机制
链接预测
知识图谱嵌入
Keywords
hierarchical attention mechanism
link prediction
knowledge graph embedding
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
基于层级注意力机制与双向长短期记忆神经网络的智能合约自动分类模型
被引量:
7
2
作者
吴雨芯
蔡婷
张大斌
机构
广东白云学院大数据与计算机学院
中山大学数据科学与计算机学院
重庆邮电大学移通学院大数据与软件学院
出处
《计算机应用》
CSCD
北大核心
2020年第4期978-984,共7页
基金
重庆市教育委员会科学技术研究项目(KJZD-K201802401)
广东白云学院2018年度科研项目(2018BYKYK05)。
文摘
针对区块链平台上智能合约应用种类繁多,人工筛选合适的智能合约应用服务日益困难的问题,提出一种基于层级注意力机制与双向长短期记忆(Bi-LSTM)神经网络的智能合约自动分类模型——HANN-SCA。首先,利用Bi-LSTM网络从智能合约源代码和账户信息两个角度同时建模,最大限度地提取智能合约的特征信息。其中源代码角度关注智能合约中的代码语义特征,账户信息角度关注智能合约的账户特征。然后,在特征学习过程中从词层面和句层面分别引入注意力机制,重点捕获对智能合约分类有重要意义的单词和句子。最后,拼接代码特征与账户特征以生成智能合约文档级特征表示,通过Softmax层完成分类任务。实验结果表明,所提模型在Dataset-E、Dataset-N和Dataset-EO数据集上的分类正确率分别达到了93.1%、91.7%和92.1%,效果明显优于传统的支持向量机模型(SVM)和其他神经网络基准模型,且具有更好的稳定性与更高的收敛速度。
关键词
智能合约分类
层级注意力机制
双向长短期记忆网络
代码语义特征
账户特征
Keywords
smart contract classification
hierarchical attention mechanism
Bidirectional Long Short-Term Memory(Bi-LSTM)network
code semantic feature
account feature
分类号
TP183 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
利用层级交互注意力的文本摘要方法
3
作者
黄于欣
余正涛
相艳
高盛祥
郭军军
机构
昆明理工大学信息工程与自动化学院
昆明理工大学云南省人工智能重点实验室
出处
《计算机科学与探索》
CSCD
北大核心
2020年第10期1681-1692,共12页
基金
国家重点研发计划Nos.2018YFC0830105,2018YFC0830101,2018YFC0830100
国家自然科学基金Nos.61972186,61762056,61472168。
文摘
基于注意力机制的编解码模型在文本摘要、机器翻译等序列到序列任务上得到了广泛的应用。在深度学习框架中,深层神经网络能够提取输入数据不同的特征表示,因此传统编解码模型中通常堆叠多层解码器来提高模型性能。然而现有的模型在解码时仅利用编码器最后一层信息,而忽略编码器其余层的特征。鉴于此,提出一种基于多层循环神经网络和层级交互注意力机制的摘要生成模型,通过层级交互注意力提取编码器不同层次的特征信息来指导摘要的生成。为了处理因引入不同层次特征而带来的信息冗余问题,引入变分信息瓶颈压缩数据噪声。最后在Gigaword和DUC2004摘要数据集上进行实验,结果表明所提方法能够获得最佳性能。
关键词
文本摘要
编解码模型
层级
交互
注意力
机制
变分信息瓶颈
Keywords
text summarization
encoding and decoding model
multi-layer interactive attention
variational information bottleneck
分类号
TP399 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于层级注意力机制的链接预测模型研究
赵晓娟
贾焰
李爱平
陈恺
《通信学报》
EI
CSCD
北大核心
2021
6
下载PDF
职称材料
2
基于层级注意力机制与双向长短期记忆神经网络的智能合约自动分类模型
吴雨芯
蔡婷
张大斌
《计算机应用》
CSCD
北大核心
2020
7
下载PDF
职称材料
3
利用层级交互注意力的文本摘要方法
黄于欣
余正涛
相艳
高盛祥
郭军军
《计算机科学与探索》
CSCD
北大核心
2020
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部