期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
4
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
跨模态语义时空动态交互情感分析研究
1
作者
屈立成
郤丽媛
+2 位作者
刘紫君
魏思
董哲为
《计算机工程与应用》
CSCD
北大核心
2024年第1期165-173,共9页
针对传统情感分析中存在的模态间交互性差、时空特征融合度低的问题,建立了一种跨模态的语义时空动态交互网络。通过引入双向长短期记忆网络挖掘各模态的时间序列特征,加入自注意力机制强化模态内特征的权重赋值,将自动筛选出的特征矩...
针对传统情感分析中存在的模态间交互性差、时空特征融合度低的问题,建立了一种跨模态的语义时空动态交互网络。通过引入双向长短期记忆网络挖掘各模态的时间序列特征,加入自注意力机制强化模态内特征的权重赋值,将自动筛选出的特征矩阵送入图卷积神经网络进行语义交互。然后以时间戳为基础进行特征聚合,计算聚合层的相关系数,获得融合后的联合特征,实现跨模态空间交互,最终完成情感极性的分类与预测。使用公开数据集对所提出的模型进行评估验证,实验结果表明,多模态时间序列提取和跨模态语义空间交互机制可以实现模态内和模态间特征的全动态融合,有效地提升了情感分类的准确率和F1值,在CMU-MOSEI数据集上分别提高了1.7%~13.5%和2.1%~14.0%,表现出良好的健壮性和先进性。
展开更多
关键词
跨
模态
情感
分析
语义交互
时空交互
双向长短期记忆网络
图卷积网络
下载PDF
职称材料
基于自监督学习的文本行人检索
被引量:
1
2
作者
冀中
胡峻华
+1 位作者
丁学文
李晟嘉
《天津大学学报(自然科学与工程技术版)》
EI
CAS
CSCD
北大核心
2023年第2期169-176,共8页
基于文本的行人检索任务旨在以文本为查询在大规模数据库中检索出目标行人的图像,在处理社会公共安全问题中具有较高的实用价值.不同于常规的跨模态检索任务,该任务中所有的类别都是行人,不同行人之间的外观差异较小,难以辨别;此外由于...
基于文本的行人检索任务旨在以文本为查询在大规模数据库中检索出目标行人的图像,在处理社会公共安全问题中具有较高的实用价值.不同于常规的跨模态检索任务,该任务中所有的类别都是行人,不同行人之间的外观差异较小,难以辨别;此外由于拍摄条件的限制图像质量通常较差,因此如何有效地提取更鲁棒、更具有判别性的视觉特征是该任务的一项重要挑战.为了应对这一挑战,设计了一种基于自监督学习的文本行人检索算法,以多任务学习的形式将自监督学习与基于文本的行人检索任务相结合,对两种任务同时进行训练,共享模型参数.其中,自监督任务作为辅助任务,旨在为行人检索任务学习到更鲁棒、更具有判别性的视觉特征.具体来说,首先提取视觉和文本特征,并以图像修复作为自监督任务,旨在学习更丰富的语义信息,且对遮挡数据具有更好的鲁棒性;基于行人图像的特殊性,进一步设计了一种镜像翻转预测任务,通过训练网络预测图像是否经过了镜像翻转学习具有判别性的细节信息,以帮助行人检索任务更好地区分难分样本.在公开数据集上进行的大量实验证明了该算法的先进性和有效性,将行人检索的Top-1准确率提升了2.77%,并且实验结果显示两种自监督任务存在一定的互补性,同时使用可以实现更好的检索性能.
展开更多
关键词
行人检索
跨模态分析
自监督学习
多任务学习
下载PDF
职称材料
基于多路语义图网络的图像自动问答
3
作者
乔有田
张海军
路明
《计算机应用研究》
CSCD
北大核心
2023年第2期383-387,共5页
基于视觉特征与文本特征融合的图像问答已经成为自动问答的热点研究方向之一。现有的大部分模型都是通过注意力机制来挖掘图像和问题语句之间的关联关系,忽略了图像区域和问题词在同一模态之中以及不同视角的关联关系。针对该问题,提出...
基于视觉特征与文本特征融合的图像问答已经成为自动问答的热点研究方向之一。现有的大部分模型都是通过注意力机制来挖掘图像和问题语句之间的关联关系,忽略了图像区域和问题词在同一模态之中以及不同视角的关联关系。针对该问题,提出一种基于多路语义图网络的图像自动问答模型(MSGN),从多个角度挖掘图像和问题之间的语义关联。MSGN利用图神经网络模型挖掘图像区域和问题词细粒度的模态内模态间的关联关系,进而提高答案预测的准确性。模型在公开的图像问答数据集上的实验结果表明,从多个角度挖掘图像和问题之间的语义关联可提高图像问题答案预测的性能。
展开更多
关键词
图像问答
多头注意力
自动问答
特征融合
跨模态分析
下载PDF
职称材料
基于群智数据的情境关联旅游路线推荐
被引量:
5
4
作者
郭斌
李智敏
+1 位作者
张靖
於志文
《郑州大学学报(理学版)》
CAS
北大核心
2020年第2期22-28,共7页
针对基于不同出行需求的景区内路线规划问题,首先运用卷积-循环神经网络(CNN-RNN)对游记中图像与文本进行联合嵌入,将数据按照景点进行分类识别,然后使用基于图模型的PhotoRank算法优选出具有多样性、代表性的图片,最后采用关联规则挖...
针对基于不同出行需求的景区内路线规划问题,首先运用卷积-循环神经网络(CNN-RNN)对游记中图像与文本进行联合嵌入,将数据按照景点进行分类识别,然后使用基于图模型的PhotoRank算法优选出具有多样性、代表性的图片,最后采用关联规则挖掘得到针对不同出行人群的特定需求情境的推荐路线。以8个热门景点为例,对马蜂窝中采集的游记数据进行实验,结果表明提出的基于群智数据的跨模态分析和情境关联旅游路线推荐方法能够从多角度真实地刻画景点,并且所推荐的情境关联路线可满足不同人群的特定游玩需求。
展开更多
关键词
群智数据
跨模态分析
PhotoRank算法
旅游路线推荐
情境关联推荐
下载PDF
职称材料
题名
跨模态语义时空动态交互情感分析研究
1
作者
屈立成
郤丽媛
刘紫君
魏思
董哲为
机构
长安大学信息工程学院
出处
《计算机工程与应用》
CSCD
北大核心
2024年第1期165-173,共9页
基金
陕西省哲学社会科学重大理论与现实问题研究项目(2022HZ1387)
国家重点研发计划(2019YFE0108300)
+1 种基金
国家自然科学基金(62001058)
陕西省自然科学基础研究计划(2020JM-258)。
文摘
针对传统情感分析中存在的模态间交互性差、时空特征融合度低的问题,建立了一种跨模态的语义时空动态交互网络。通过引入双向长短期记忆网络挖掘各模态的时间序列特征,加入自注意力机制强化模态内特征的权重赋值,将自动筛选出的特征矩阵送入图卷积神经网络进行语义交互。然后以时间戳为基础进行特征聚合,计算聚合层的相关系数,获得融合后的联合特征,实现跨模态空间交互,最终完成情感极性的分类与预测。使用公开数据集对所提出的模型进行评估验证,实验结果表明,多模态时间序列提取和跨模态语义空间交互机制可以实现模态内和模态间特征的全动态融合,有效地提升了情感分类的准确率和F1值,在CMU-MOSEI数据集上分别提高了1.7%~13.5%和2.1%~14.0%,表现出良好的健壮性和先进性。
关键词
跨
模态
情感
分析
语义交互
时空交互
双向长短期记忆网络
图卷积网络
Keywords
cross modal sentiment analysis
semantic interaction
spatio-temporal interaction
bi-directional long short-term memory
graph convolutional network
分类号
TP181 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
基于自监督学习的文本行人检索
被引量:
1
2
作者
冀中
胡峻华
丁学文
李晟嘉
机构
天津大学电气自动化与信息工程学院
天津职业技术师范大学电子工程学院
中国运载火箭技术研究院研究发展部
出处
《天津大学学报(自然科学与工程技术版)》
EI
CAS
CSCD
北大核心
2023年第2期169-176,共8页
基金
天津市自然科学基金资助项目(19JCYBJC16000)
国家自然科学基金资助项目(62176178)
+1 种基金
天津市科委科技特派员资助项目(20YDTPJC01110)
中国航天科技集团公司钱学森青年创新基金资助项目。
文摘
基于文本的行人检索任务旨在以文本为查询在大规模数据库中检索出目标行人的图像,在处理社会公共安全问题中具有较高的实用价值.不同于常规的跨模态检索任务,该任务中所有的类别都是行人,不同行人之间的外观差异较小,难以辨别;此外由于拍摄条件的限制图像质量通常较差,因此如何有效地提取更鲁棒、更具有判别性的视觉特征是该任务的一项重要挑战.为了应对这一挑战,设计了一种基于自监督学习的文本行人检索算法,以多任务学习的形式将自监督学习与基于文本的行人检索任务相结合,对两种任务同时进行训练,共享模型参数.其中,自监督任务作为辅助任务,旨在为行人检索任务学习到更鲁棒、更具有判别性的视觉特征.具体来说,首先提取视觉和文本特征,并以图像修复作为自监督任务,旨在学习更丰富的语义信息,且对遮挡数据具有更好的鲁棒性;基于行人图像的特殊性,进一步设计了一种镜像翻转预测任务,通过训练网络预测图像是否经过了镜像翻转学习具有判别性的细节信息,以帮助行人检索任务更好地区分难分样本.在公开数据集上进行的大量实验证明了该算法的先进性和有效性,将行人检索的Top-1准确率提升了2.77%,并且实验结果显示两种自监督任务存在一定的互补性,同时使用可以实现更好的检索性能.
关键词
行人检索
跨模态分析
自监督学习
多任务学习
Keywords
person search
crossmodal analysis
self-supervised learning
multitask learning
分类号
TP37 [自动化与计算机技术—计算机系统结构]
下载PDF
职称材料
题名
基于多路语义图网络的图像自动问答
3
作者
乔有田
张海军
路明
机构
扬州市职业大学电子工程学院
北京物资学院信息学院
北京航空航天大学网络空间安全学院
出处
《计算机应用研究》
CSCD
北大核心
2023年第2期383-387,共5页
基金
北京市自然科学基金资助项目(4182037)
北京社会科学基金资助项目(21XCB005)
北京市教委科技计划资助项目(KM201810037001)。
文摘
基于视觉特征与文本特征融合的图像问答已经成为自动问答的热点研究方向之一。现有的大部分模型都是通过注意力机制来挖掘图像和问题语句之间的关联关系,忽略了图像区域和问题词在同一模态之中以及不同视角的关联关系。针对该问题,提出一种基于多路语义图网络的图像自动问答模型(MSGN),从多个角度挖掘图像和问题之间的语义关联。MSGN利用图神经网络模型挖掘图像区域和问题词细粒度的模态内模态间的关联关系,进而提高答案预测的准确性。模型在公开的图像问答数据集上的实验结果表明,从多个角度挖掘图像和问题之间的语义关联可提高图像问题答案预测的性能。
关键词
图像问答
多头注意力
自动问答
特征融合
跨模态分析
Keywords
image question answering
multi-head attention model
automatic question answering
feature fusion
cross-modal analysis
分类号
TP391.1 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
基于群智数据的情境关联旅游路线推荐
被引量:
5
4
作者
郭斌
李智敏
张靖
於志文
机构
西北工业大学计算机科学系
出处
《郑州大学学报(理学版)》
CAS
北大核心
2020年第2期22-28,共7页
基金
国家重点基础研究发展计划(973计划)(2015CB352400)
国家重点研发计划(2017YFB1001803)
国家自然科学基金项目(61772428,61725205)。
文摘
针对基于不同出行需求的景区内路线规划问题,首先运用卷积-循环神经网络(CNN-RNN)对游记中图像与文本进行联合嵌入,将数据按照景点进行分类识别,然后使用基于图模型的PhotoRank算法优选出具有多样性、代表性的图片,最后采用关联规则挖掘得到针对不同出行人群的特定需求情境的推荐路线。以8个热门景点为例,对马蜂窝中采集的游记数据进行实验,结果表明提出的基于群智数据的跨模态分析和情境关联旅游路线推荐方法能够从多角度真实地刻画景点,并且所推荐的情境关联路线可满足不同人群的特定游玩需求。
关键词
群智数据
跨模态分析
PhotoRank算法
旅游路线推荐
情境关联推荐
Keywords
crowd sourced data
cross-modal analysis
PhotoRank algorithm
scenic route recommendation
context-based recommendation
分类号
TP311 [自动化与计算机技术—计算机软件与理论]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
跨模态语义时空动态交互情感分析研究
屈立成
郤丽媛
刘紫君
魏思
董哲为
《计算机工程与应用》
CSCD
北大核心
2024
0
下载PDF
职称材料
2
基于自监督学习的文本行人检索
冀中
胡峻华
丁学文
李晟嘉
《天津大学学报(自然科学与工程技术版)》
EI
CAS
CSCD
北大核心
2023
1
下载PDF
职称材料
3
基于多路语义图网络的图像自动问答
乔有田
张海军
路明
《计算机应用研究》
CSCD
北大核心
2023
0
下载PDF
职称材料
4
基于群智数据的情境关联旅游路线推荐
郭斌
李智敏
张靖
於志文
《郑州大学学报(理学版)》
CAS
北大核心
2020
5
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部