期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
6
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
结合空间语义注意力的二段式遥感图像修复网络
被引量:
1
1
作者
刘宇佳
谢诗哲
+3 位作者
杜阳
严瑾
南燕云
温中凯
《自然资源遥感》
CSCD
北大核心
2024年第1期58-66,共9页
高分辨率遥感图像的缺失区域中地物种类复杂多样、空间异质性高,导致图像修复结果中存在纹理模糊和结构扭曲的问题,且在边界和复杂纹理区域尤为突出。因此提出一种结合空间语义注意力的二段式遥感图像修复网络。该网络由粗修复网络和精...
高分辨率遥感图像的缺失区域中地物种类复杂多样、空间异质性高,导致图像修复结果中存在纹理模糊和结构扭曲的问题,且在边界和复杂纹理区域尤为突出。因此提出一种结合空间语义注意力的二段式遥感图像修复网络。该网络由粗修复网络和精修复网络串联而成,旨在使用粗略修复网络提供的先验信息,引导精修复网络对缺失区域的复原。在粗修复网络中,构建多级损失结构以强化网络训练的稳定性;在精修复网络中,提出一种新的空间语义注意力机制,并依据网络特征的分布特点,区别性将空间语义注意力嵌入在编码器和解码器中,以确保局部特征的连续性和全局语义信息的相关性。实验结果表明,所提方法相比于现有其他算法可以进一步提升图像修复效果。
展开更多
关键词
二段式网络
遥感图像修复
空间
语义
注意力
局部特征连续性
全局语义信息
相关性
下载PDF
职称材料
提取全局语义信息的场景图生成算法
被引量:
1
2
作者
段静雯
闵卫东
+3 位作者
杨子元
张煜
陈鑫浩
杨升宝
《中国图象图形学报》
CSCD
北大核心
2022年第7期2214-2225,共12页
目的场景图能够简洁且结构化地描述图像。现有场景图生成方法重点关注图像的视觉特征,忽视了数据集中丰富的语义信息。同时,受到数据集长尾分布的影响,大多数方法不能很好地对出现概率较小的三元组进行推理,而是趋于得到高频三元组。另...
目的场景图能够简洁且结构化地描述图像。现有场景图生成方法重点关注图像的视觉特征,忽视了数据集中丰富的语义信息。同时,受到数据集长尾分布的影响,大多数方法不能很好地对出现概率较小的三元组进行推理,而是趋于得到高频三元组。另外,现有大多数方法都采用相同的网络结构来推理目标和关系类别,不具有针对性。为了解决上述问题,本文提出一种提取全局语义信息的场景图生成算法。方法网络由语义编码、特征编码、目标推断以及关系推理等4个模块组成。语义编码模块从图像区域描述中提取语义信息并计算全局统计知识,融合得到鲁棒的全局语义信息来辅助不常见三元组的推理。目标编码模块提取图像的视觉特征。目标推断和关系推理模块采用不同的特征融合方法,分别利用门控图神经网络和门控循环单元进行特征学习。在此基础上,在全局统计知识的辅助下进行目标类别和关系类别推理。最后利用解析器构造场景图,进而结构化地描述图像。结果在公开的视觉基因组数据集上与其他10种方法进行比较,分别实现关系分类、场景图元素分类和场景图生成这3个任务,在限制和不限制每对目标只有一种关系的条件下,平均召回率分别达到了44.2%和55.3%。在可视化实验中,相比性能第2的方法,本文方法增强了不常见关系类别的推理能力,同时改善了目标类别与常见关系的推理能力。结论本文算法能够提高不常见三元组的推理能力,同时对于常见的三元组也具有较好的推理能力,能够有效地生成场景图。
展开更多
关键词
场景图
全局语义信息
目标推断
关系推理
图像理解
原文传递
一种基于全局和局部特征表示的关键词抽取算法
被引量:
1
3
作者
祖弦
谢飞
《云南大学学报(自然科学版)》
CAS
CSCD
北大核心
2023年第4期825-836,共12页
为解决传统关键词算法易忽略文档上下文语义信息,以及单词重要的统计特征未在深度学习方法中得到充分利用等问题,提出一种基于全局和局部特征表示的关键词抽取算法.首先,利用Transformer和卷积神经网络搭建深度学习模型,通过多头注意力...
为解决传统关键词算法易忽略文档上下文语义信息,以及单词重要的统计特征未在深度学习方法中得到充分利用等问题,提出一种基于全局和局部特征表示的关键词抽取算法.首先,利用Transformer和卷积神经网络搭建深度学习模型,通过多头注意力机制计算单词的全局语义特征表示,并利用每个单词的词性和词频统计特征信息,与语义特征拼接融合得出单词的特征向量表示;然后,采用多层卷积神经网络融合空洞卷积神经网络高效捕获单词局部特征信息和单词间依赖关系;最后,将关键词抽取工作看成序列标注任务抽取最终关键词.通过在两个公开语料库上的多项调参和对比实验,证明提出的算法效果优于现有的主流关键词抽取算法,在Inspec和kp20k数据集上的F1值分别达到了49.87%和35.77%,有效提高了关键词自动抽取结果的准确性.
展开更多
关键词
抽取
Transformer模型
卷积神经网络
空洞卷积神经网络
多头注意力
全局语义信息
下载PDF
职称材料
改进MobileViT网络识别轻量化田间杂草
被引量:
7
4
作者
杨森森
张昊
+1 位作者
兴陆
杜勇
《农业工程学报》
EI
CAS
CSCD
北大核心
2023年第9期152-160,共9页
为解决现有的田间杂草识别方法无法兼顾高准确率与实时性的问题,该研究提出了一种基于改进MobileViT网络的轻量化杂草识别方法。首先,该方法使用高效的MobileViT网络构建杂草特征提取网络,在保证特征提取能力的同时实现更少的模型参数...
为解决现有的田间杂草识别方法无法兼顾高准确率与实时性的问题,该研究提出了一种基于改进MobileViT网络的轻量化杂草识别方法。首先,该方法使用高效的MobileViT网络构建杂草特征提取网络,在保证特征提取能力的同时实现更少的模型参数量与计算量;其次,通过高效通道注意力机制加强下采样后特征图中的重要特征,进一步提升模型的特征提取能力;最后,特征提取网络中的MobileViT模块被用于同时学习局部语义信息和全局语义信息,仅通过少量模块的组合便能够准确地捕捉到不同类别杂草与作物间细微差异。为验证该方法的有效性,该研究以农田环境下采集的玉米幼苗及其4类伴生杂草图像为数据进行了模型训练,试验结果表明,该方法的识别准确率、精准度、召回率和F1分数分别为99.61%、99.60%、99.58%和99.59%,优于VGG-16、ResNet-50、DenseNet-161、MobileNetv2等常用卷积神经网络;同时,可视化结果表明该方法能够有效提取杂草图像中的关键特征,并抑制背景区域对识别结果的影响。该研究提出的方法能够精准、快速地区分出农田环境下形态相似的多种杂草与作物,可为智能除草设备中的杂草识别系统设计提供参考。
展开更多
关键词
图像识别
杂草
MobileViT
通道注意力
全局语义信息
下载PDF
职称材料
基于堆叠交叉注意力的图像文本跨模态匹配方法
被引量:
2
5
作者
王红斌
张志亮
李华锋
《信号处理》
CSCD
北大核心
2022年第2期285-299,共15页
图像文本跨模态匹配是计算机视觉与自然语言处理交叉领域的一项重要任务,然而传统的图像文本跨模态匹配方法要么只考虑到全局图像与全局文本匹配,要么只考虑到局部图像与局部文本匹配,无法全面有效的考虑局部和全局信息,导致提取出来的...
图像文本跨模态匹配是计算机视觉与自然语言处理交叉领域的一项重要任务,然而传统的图像文本跨模态匹配方法要么只考虑到全局图像与全局文本匹配,要么只考虑到局部图像与局部文本匹配,无法全面有效的考虑局部和全局信息,导致提取出来的特征信息不完善。或者只是简单的对全局图像与全局文本特征进行提取,局部细节信息无法凸显,导致全局特征无法充分表达其全局语义信息。针对该问题,本文提出一种基于堆叠交叉注意力的图像文本跨模态匹配方法。该方法在考虑局部图像与局部文本匹配的同时,将堆叠交叉注意力引进全局图像与全局文本匹配,通过注意力来进一步挖掘全局特征信息,让全局图像与全局文本特征得到优化,从而提升图像文本跨模态检索的效果。在Flickr30K和MS-COCO两个公共数据集上进行了实验验证,模型的总体性能R@sum(Recall@sum)较baseline(SCAN)分别提高了3.9%与3.7%。该模型与SCAN模型相比,R@sum表现较好。由此表明本文提出方法在图像文本跨模态检索任务上的有效性,并且与现有方法相比具有一定的优越性。
展开更多
关键词
跨模态匹配
局部细节
信息
全局语义信息
堆叠交叉注意力
图像文本特征
下载PDF
职称材料
结合实体标签的中文嵌套命名实体识别
6
作者
潘丽君
陈艳平
+1 位作者
黄瑞章
秦永彬
《计算机与数字工程》
2022年第7期1522-1527,1539,共7页
针对嵌套命名实体识别,神经网络模型中提出基于跨度的框架。该框架首先产生跨度种子,然后搭建分类器进行筛选。但单独对跨度区域进行分类存在丢失全局语义信息的问题。另外,在中文嵌套命名实体识别中,因为缺少分隔符且中文高度依赖上下...
针对嵌套命名实体识别,神经网络模型中提出基于跨度的框架。该框架首先产生跨度种子,然后搭建分类器进行筛选。但单独对跨度区域进行分类存在丢失全局语义信息的问题。另外,在中文嵌套命名实体识别中,因为缺少分隔符且中文高度依赖上下文,跨度区域无法有效使用词边界特征,导致识别性能不佳。为解决上述问题,本文提出结合实体标签的中文嵌套命名实体识别模型(CEL)。该模型生成跨度种子后,在原句子的跨度区域开始及结束位置嵌入实体标签,再作为分类器输入,从而更好地学习到跨度种区域边界和上下文之间的语义依赖特征。论文在ACE2005中文数据集上进行实验,实验表明,CEL模型在F1值上达到了较好水平。
展开更多
关键词
嵌套命名实体识别
神经网络
跨度种子
全局语义信息
实体标签
下载PDF
职称材料
题名
结合空间语义注意力的二段式遥感图像修复网络
被引量:
1
1
作者
刘宇佳
谢诗哲
杜阳
严瑾
南燕云
温中凯
机构
辽宁工程技术大学测绘与地理科学学院
中国地质大学(北京)信息工程学院
南京航空航天大学航天学院
中国地震应急搜救中心
首都师范大学资源环境与旅游学院
中国空间技术研究院遥感卫星总体部
出处
《自然资源遥感》
CSCD
北大核心
2024年第1期58-66,共9页
基金
国家自然科学基金项目“基于无人机遥感和移动定位数据潮汐特征的地震人员精细化评估伤亡方法研究”(编号:42061073)
中国地震应急搜救中心青年科技基金项目“灾后建筑物震害提取与灾情研究——以川滇某县为例”(编号:SJ2101)共同资助。
文摘
高分辨率遥感图像的缺失区域中地物种类复杂多样、空间异质性高,导致图像修复结果中存在纹理模糊和结构扭曲的问题,且在边界和复杂纹理区域尤为突出。因此提出一种结合空间语义注意力的二段式遥感图像修复网络。该网络由粗修复网络和精修复网络串联而成,旨在使用粗略修复网络提供的先验信息,引导精修复网络对缺失区域的复原。在粗修复网络中,构建多级损失结构以强化网络训练的稳定性;在精修复网络中,提出一种新的空间语义注意力机制,并依据网络特征的分布特点,区别性将空间语义注意力嵌入在编码器和解码器中,以确保局部特征的连续性和全局语义信息的相关性。实验结果表明,所提方法相比于现有其他算法可以进一步提升图像修复效果。
关键词
二段式网络
遥感图像修复
空间
语义
注意力
局部特征连续性
全局语义信息
相关性
Keywords
two-stage network
remote sensing image inpainting
spatial semantic attention
continuity of local features
correlation of global semantic information
分类号
TP751 [自动化与计算机技术—检测技术与自动化装置]
下载PDF
职称材料
题名
提取全局语义信息的场景图生成算法
被引量:
1
2
作者
段静雯
闵卫东
杨子元
张煜
陈鑫浩
杨升宝
机构
南昌大学信息工程学院
南昌大学软件学院
江西省智慧城市重点实验室
出处
《中国图象图形学报》
CSCD
北大核心
2022年第7期2214-2225,共12页
基金
国家自然科学基金项目(62076117,61762061)
江西省自然科学基金项目(20161ACB20004)
江西省智慧城市重点实验室项目(20192BCD40002)。
文摘
目的场景图能够简洁且结构化地描述图像。现有场景图生成方法重点关注图像的视觉特征,忽视了数据集中丰富的语义信息。同时,受到数据集长尾分布的影响,大多数方法不能很好地对出现概率较小的三元组进行推理,而是趋于得到高频三元组。另外,现有大多数方法都采用相同的网络结构来推理目标和关系类别,不具有针对性。为了解决上述问题,本文提出一种提取全局语义信息的场景图生成算法。方法网络由语义编码、特征编码、目标推断以及关系推理等4个模块组成。语义编码模块从图像区域描述中提取语义信息并计算全局统计知识,融合得到鲁棒的全局语义信息来辅助不常见三元组的推理。目标编码模块提取图像的视觉特征。目标推断和关系推理模块采用不同的特征融合方法,分别利用门控图神经网络和门控循环单元进行特征学习。在此基础上,在全局统计知识的辅助下进行目标类别和关系类别推理。最后利用解析器构造场景图,进而结构化地描述图像。结果在公开的视觉基因组数据集上与其他10种方法进行比较,分别实现关系分类、场景图元素分类和场景图生成这3个任务,在限制和不限制每对目标只有一种关系的条件下,平均召回率分别达到了44.2%和55.3%。在可视化实验中,相比性能第2的方法,本文方法增强了不常见关系类别的推理能力,同时改善了目标类别与常见关系的推理能力。结论本文算法能够提高不常见三元组的推理能力,同时对于常见的三元组也具有较好的推理能力,能够有效地生成场景图。
关键词
场景图
全局语义信息
目标推断
关系推理
图像理解
Keywords
scene graph
global semantic information
target inference
relationship reasoning
image interpretation
分类号
TP391 [自动化与计算机技术—计算机应用技术]
原文传递
题名
一种基于全局和局部特征表示的关键词抽取算法
被引量:
1
3
作者
祖弦
谢飞
机构
合肥师范学院计算机学院
合肥师范学院安徽省电子系统仿真重点实验室
出处
《云南大学学报(自然科学版)》
CAS
CSCD
北大核心
2023年第4期825-836,共12页
基金
国家自然科学基金(61503116)
安徽省高校自然科学研究(KJ2021A0902)
安徽省级科研平台专项(2020PT15).
文摘
为解决传统关键词算法易忽略文档上下文语义信息,以及单词重要的统计特征未在深度学习方法中得到充分利用等问题,提出一种基于全局和局部特征表示的关键词抽取算法.首先,利用Transformer和卷积神经网络搭建深度学习模型,通过多头注意力机制计算单词的全局语义特征表示,并利用每个单词的词性和词频统计特征信息,与语义特征拼接融合得出单词的特征向量表示;然后,采用多层卷积神经网络融合空洞卷积神经网络高效捕获单词局部特征信息和单词间依赖关系;最后,将关键词抽取工作看成序列标注任务抽取最终关键词.通过在两个公开语料库上的多项调参和对比实验,证明提出的算法效果优于现有的主流关键词抽取算法,在Inspec和kp20k数据集上的F1值分别达到了49.87%和35.77%,有效提高了关键词自动抽取结果的准确性.
关键词
抽取
Transformer模型
卷积神经网络
空洞卷积神经网络
多头注意力
全局语义信息
Keywords
keyphrase extraction
Transformer model
convolutional neural network
dilated convolutional neural network
multi-head attention
global semantic information
分类号
TP391.1 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
改进MobileViT网络识别轻量化田间杂草
被引量:
7
4
作者
杨森森
张昊
兴陆
杜勇
机构
东北农业大学电气与信息学院
出处
《农业工程学报》
EI
CAS
CSCD
北大核心
2023年第9期152-160,共9页
基金
黑龙江省自然科学基金联合引导项目(LH2020C001)
省级大学生创新创业训练计划项目(S202210224136)。
文摘
为解决现有的田间杂草识别方法无法兼顾高准确率与实时性的问题,该研究提出了一种基于改进MobileViT网络的轻量化杂草识别方法。首先,该方法使用高效的MobileViT网络构建杂草特征提取网络,在保证特征提取能力的同时实现更少的模型参数量与计算量;其次,通过高效通道注意力机制加强下采样后特征图中的重要特征,进一步提升模型的特征提取能力;最后,特征提取网络中的MobileViT模块被用于同时学习局部语义信息和全局语义信息,仅通过少量模块的组合便能够准确地捕捉到不同类别杂草与作物间细微差异。为验证该方法的有效性,该研究以农田环境下采集的玉米幼苗及其4类伴生杂草图像为数据进行了模型训练,试验结果表明,该方法的识别准确率、精准度、召回率和F1分数分别为99.61%、99.60%、99.58%和99.59%,优于VGG-16、ResNet-50、DenseNet-161、MobileNetv2等常用卷积神经网络;同时,可视化结果表明该方法能够有效提取杂草图像中的关键特征,并抑制背景区域对识别结果的影响。该研究提出的方法能够精准、快速地区分出农田环境下形态相似的多种杂草与作物,可为智能除草设备中的杂草识别系统设计提供参考。
关键词
图像识别
杂草
MobileViT
通道注意力
全局语义信息
Keywords
image recognition
weed
MobileViT
channel attention
global semantic information
分类号
S24 [农业科学—农业电气化与自动化]
下载PDF
职称材料
题名
基于堆叠交叉注意力的图像文本跨模态匹配方法
被引量:
2
5
作者
王红斌
张志亮
李华锋
机构
昆明理工大学信息工程与自动化学院
昆明理工大学云南省人工智能重点实验室
出处
《信号处理》
CSCD
北大核心
2022年第2期285-299,共15页
基金
国家自然科学基金(61966021,61966020)。
文摘
图像文本跨模态匹配是计算机视觉与自然语言处理交叉领域的一项重要任务,然而传统的图像文本跨模态匹配方法要么只考虑到全局图像与全局文本匹配,要么只考虑到局部图像与局部文本匹配,无法全面有效的考虑局部和全局信息,导致提取出来的特征信息不完善。或者只是简单的对全局图像与全局文本特征进行提取,局部细节信息无法凸显,导致全局特征无法充分表达其全局语义信息。针对该问题,本文提出一种基于堆叠交叉注意力的图像文本跨模态匹配方法。该方法在考虑局部图像与局部文本匹配的同时,将堆叠交叉注意力引进全局图像与全局文本匹配,通过注意力来进一步挖掘全局特征信息,让全局图像与全局文本特征得到优化,从而提升图像文本跨模态检索的效果。在Flickr30K和MS-COCO两个公共数据集上进行了实验验证,模型的总体性能R@sum(Recall@sum)较baseline(SCAN)分别提高了3.9%与3.7%。该模型与SCAN模型相比,R@sum表现较好。由此表明本文提出方法在图像文本跨模态检索任务上的有效性,并且与现有方法相比具有一定的优越性。
关键词
跨模态匹配
局部细节
信息
全局语义信息
堆叠交叉注意力
图像文本特征
Keywords
cross-modal matching
local detail information
global semantic information
stacked cross attention
image-text features
分类号
TP391.3 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
结合实体标签的中文嵌套命名实体识别
6
作者
潘丽君
陈艳平
黄瑞章
秦永彬
机构
贵州大学计算机科学与技术学院
贵州大学贵州省公共大数据重点实验室
出处
《计算机与数字工程》
2022年第7期1522-1527,1539,共7页
基金
国家自然科学基金项目(编号:62166007)资助。
文摘
针对嵌套命名实体识别,神经网络模型中提出基于跨度的框架。该框架首先产生跨度种子,然后搭建分类器进行筛选。但单独对跨度区域进行分类存在丢失全局语义信息的问题。另外,在中文嵌套命名实体识别中,因为缺少分隔符且中文高度依赖上下文,跨度区域无法有效使用词边界特征,导致识别性能不佳。为解决上述问题,本文提出结合实体标签的中文嵌套命名实体识别模型(CEL)。该模型生成跨度种子后,在原句子的跨度区域开始及结束位置嵌入实体标签,再作为分类器输入,从而更好地学习到跨度种区域边界和上下文之间的语义依赖特征。论文在ACE2005中文数据集上进行实验,实验表明,CEL模型在F1值上达到了较好水平。
关键词
嵌套命名实体识别
神经网络
跨度种子
全局语义信息
实体标签
Keywords
nested named entity recognition
neural network
span seeds
global semantic information
entity labels
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
结合空间语义注意力的二段式遥感图像修复网络
刘宇佳
谢诗哲
杜阳
严瑾
南燕云
温中凯
《自然资源遥感》
CSCD
北大核心
2024
1
下载PDF
职称材料
2
提取全局语义信息的场景图生成算法
段静雯
闵卫东
杨子元
张煜
陈鑫浩
杨升宝
《中国图象图形学报》
CSCD
北大核心
2022
1
原文传递
3
一种基于全局和局部特征表示的关键词抽取算法
祖弦
谢飞
《云南大学学报(自然科学版)》
CAS
CSCD
北大核心
2023
1
下载PDF
职称材料
4
改进MobileViT网络识别轻量化田间杂草
杨森森
张昊
兴陆
杜勇
《农业工程学报》
EI
CAS
CSCD
北大核心
2023
7
下载PDF
职称材料
5
基于堆叠交叉注意力的图像文本跨模态匹配方法
王红斌
张志亮
李华锋
《信号处理》
CSCD
北大核心
2022
2
下载PDF
职称材料
6
结合实体标签的中文嵌套命名实体识别
潘丽君
陈艳平
黄瑞章
秦永彬
《计算机与数字工程》
2022
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部