期刊文献+
共找到470篇文章
< 1 2 24 >
每页显示 20 50 100
HOG-VGG:VGG Network with HOG Feature Fusion for High-Precision PolSAR Terrain Classification
1
作者 Jiewen Li Zhicheng Zhao +2 位作者 Yanlan Wu Jiaqiu Ai Jun Shi 《Journal of Harbin Institute of Technology(New Series)》 CAS 2024年第5期1-15,共15页
This article proposes a VGG network with histogram of oriented gradient(HOG) feature fusion(HOG-VGG) for polarization synthetic aperture radar(PolSAR) image terrain classification.VGG-Net has a strong ability of deep ... This article proposes a VGG network with histogram of oriented gradient(HOG) feature fusion(HOG-VGG) for polarization synthetic aperture radar(PolSAR) image terrain classification.VGG-Net has a strong ability of deep feature extraction,which can fully extract the global deep features of different terrains in PolSAR images,so it is widely used in PolSAR terrain classification.However,VGG-Net ignores the local edge & shape features,resulting in incomplete feature representation of the PolSAR terrains,as a consequence,the terrain classification accuracy is not promising.In fact,edge and shape features play an important role in PolSAR terrain classification.To solve this problem,a new VGG network with HOG feature fusion was specifically proposed for high-precision PolSAR terrain classification.HOG-VGG extracts both the global deep semantic features and the local edge & shape features of the PolSAR terrains,so the terrain feature representation completeness is greatly elevated.Moreover,HOG-VGG optimally fuses the global deep features and the local edge & shape features to achieve the best classification results.The superiority of HOG-VGG is verified on the Flevoland,San Francisco and Oberpfaffenhofen datasets.Experiments show that the proposed HOG-VGG achieves much better PolSAR terrain classification performance,with overall accuracies of 97.54%,94.63%,and 96.07%,respectively. 展开更多
关键词 PolSAR terrain classification high⁃precision HOG⁃VGG feature representation completeness elevation multi⁃level feature fusion
下载PDF
DCFNet:An Effective Dual-Branch Cross-Attention Fusion Network for Medical Image Segmentation
2
作者 Chengzhang Zhu Renmao Zhang +5 位作者 Yalong Xiao Beiji Zou Xian Chai Zhangzheng Yang Rong Hu Xuanchu Duan 《Computer Modeling in Engineering & Sciences》 SCIE EI 2024年第7期1103-1128,共26页
Automatic segmentation of medical images provides a reliable scientific basis for disease diagnosis and analysis.Notably,most existing methods that combine the strengths of convolutional neural networks(CNNs)and Trans... Automatic segmentation of medical images provides a reliable scientific basis for disease diagnosis and analysis.Notably,most existing methods that combine the strengths of convolutional neural networks(CNNs)and Transformers have made significant progress.However,there are some limitations in the current integration of CNN and Transformer technology in two key aspects.Firstly,most methods either overlook or fail to fully incorporate the complementary nature between local and global features.Secondly,the significance of integrating the multiscale encoder features from the dual-branch network to enhance the decoding features is often disregarded in methods that combine CNN and Transformer.To address this issue,we present a groundbreaking dual-branch cross-attention fusion network(DCFNet),which efficiently combines the power of Swin Transformer and CNN to generate complementary global and local features.We then designed the Feature Cross-Fusion(FCF)module to efficiently fuse local and global features.In the FCF,the utilization of the Channel-wise Cross-fusion Transformer(CCT)serves the purpose of aggregatingmulti-scale features,and the Feature FusionModule(FFM)is employed to effectively aggregate dual-branch prominent feature regions from the spatial perspective.Furthermore,within the decoding phase of the dual-branch network,our proposed Channel Attention Block(CAB)aims to emphasize the significance of the channel features between the up-sampled features and the features generated by the FCFmodule to enhance the details of the decoding.Experimental results demonstrate that DCFNet exhibits enhanced accuracy in segmentation performance.Compared to other state-of-the-art(SOTA)methods,our segmentation framework exhibits a superior level of competitiveness.DCFNet’s accurate segmentation of medical images can greatly assist medical professionals in making crucial diagnoses of lesion areas in advance. 展开更多
关键词 Convolutional neural networks Swin Transformer dual branch medical image segmentation feature cross fusion
下载PDF
Enhanced Feature Fusion Segmentation for Tumor Detection Using Intelligent Techniques
3
作者 R.Radha R.Gopalakrishnan 《Intelligent Automation & Soft Computing》 SCIE 2023年第3期3113-3127,共15页
In thefield of diagnosis of medical images the challenge lies in tracking and identifying the defective cells and the extent of the defective region within the complex structure of a brain cavity.Locating the defective... In thefield of diagnosis of medical images the challenge lies in tracking and identifying the defective cells and the extent of the defective region within the complex structure of a brain cavity.Locating the defective cells precisely during the diagnosis phase helps tofight the greatest exterminator of mankind.Early detec-tion of these defective cells requires an accurate computer-aided diagnostic system(CAD)that supports early treatment and promotes survival rates of patients.An ear-lier version of CAD systems relies greatly on the expertise of radiologist and it con-sumed more time to identify the defective region.The manuscript takes the efficacy of coalescing features like intensity,shape,and texture of the magnetic resonance image(MRI).In the Enhanced Feature Fusion Segmentation based classification method(EEFS)the image is enhanced and segmented to extract the prominent fea-tures.To bring out the desired effect the EEFS method uses Enhanced Local Binary Pattern(EnLBP),Partisan Gray Level Co-occurrence Matrix Histogram of Oriented Gradients(PGLCMHOG),and iGrab cut method to segment image.These prominent features along with deep features are coalesced to provide a single-dimensional fea-ture vector that is effectively used for prediction.The coalesced vector is used with the existing classifiers to compare the results of these classifiers with that of the gen-erated vector.The generated vector provides promising results with commendably less computatio nal time for pre-processing and classification of MR medical images. 展开更多
关键词 Enhanced local binary pattern level iGrab cut method magnetic resonance image computer aided diagnostic system enhanced feature fusion segmentation enhanced local binary pattern
下载PDF
A Multi-Detector Security Architecture with Local Feature-Level Fusion for Multimodal Biometrics
4
作者 Sorin Soviany Sorin Puscoci Cristina Soviany 《通讯和计算机(中英文版)》 2013年第9期1200-1218,共19页
关键词 生物特征识别 特征级融合 多探测器 安全架构 多模态 生物识别系统 识别模型 生物识别技术
下载PDF
Coal–rock interface detection on the basis of image texture features 被引量:20
5
作者 Sun Jiping Su Bo 《International Journal of Mining Science and Technology》 SCIE EI 2013年第5期681-687,共7页
Based on the stability and inequality of texture features between coal and rock,this study used the digital image analysis technique to propose a coal–rock interface detection method.By using gray level co-occurrence... Based on the stability and inequality of texture features between coal and rock,this study used the digital image analysis technique to propose a coal–rock interface detection method.By using gray level co-occurrence matrix,twenty-two texture features were extracted from the images of coal and rock.Data dimension of the feature space reduced to four by feature selection,which was according to a separability criterion based on inter-class mean difference and within-class scatter.The experimental results show that the optimized features were effective in improving the separability of the samples and reducing the time complexity of the algorithm.In the optimized low-dimensional feature space,the coal–rock classifer was set up using the fsher discriminant method.Using the 10-fold cross-validation technique,the performance of the classifer was evaluated,and an average recognition rate of 94.12%was obtained.The results of comparative experiments show that the identifcation performance of the proposed method was superior to the texture description method based on gray histogram and gradient histogram. 展开更多
关键词 Coal–rock interface detection TEXTURE Gray level co-occurrence matrix feature selection Fisher discriminant method cross-validation
下载PDF
Machine Learning for Data Fusion:A Fuzzy AHP Approach for Open Issues
6
作者 Vinay Kukreja Asha Abraham +3 位作者 K.Kalaiselvi K.Deepa Thilak Shanmugasundaram Hariharan Shih-Yu Chen 《Computers, Materials & Continua》 SCIE EI 2023年第12期2899-2914,共16页
Data fusion generates fused data by combining multiple sources,resulting in information that is more consistent,accurate,and useful than any individual source and more reliable and consistent than the raw original dat... Data fusion generates fused data by combining multiple sources,resulting in information that is more consistent,accurate,and useful than any individual source and more reliable and consistent than the raw original data,which are often imperfect,inconsistent,complex,and uncertain.Traditional data fusion methods like probabilistic fusion,set-based fusion,and evidential belief reasoning fusion methods are computationally complex and require accurate classification and proper handling of raw data.Data fusion is the process of integrating multiple data sources.Data filtering means examining a dataset to exclude,rearrange,or apportion data according to the criteria.Different sensors generate a large amount of data,requiring the development of machine learning(ML)algorithms to overcome the challenges of traditional methods.The advancement in hardware acceleration and the abundance of data from various sensors have led to the development of machine learning(ML)algorithms,expected to address the limitations of traditional methods.However,many open issues still exist as machine learning algorithms are used for data fusion.From the literature,nine issues have been identified irrespective of any application.The decision-makers should pay attention to these issues as data fusion becomes more applicable and successful.A fuzzy analytical hierarchical process(FAHP)enables us to handle these issues.It helps to get the weights for each corresponding issue and rank issues based on these calculated weights.The most significant issue identified is the lack of deep learning models used for data fusion that improve accuracy and learning quality weighted 0.141.The least significant one is the cross-domain multimodal data fusion weighted 0.076 because the whole semantic knowledge for multimodal data cannot be captured. 展开更多
关键词 Signal level fusion feature level fusion decision level fusion fuzzy hierarchical process machine learning
下载PDF
多层次时空特征自适应集成与特有-共享特征融合的双模态情感识别 被引量:2
7
作者 孙强 陈远 《电子与信息学报》 EI CAS CSCD 北大核心 2024年第2期574-587,共14页
在结合脑电(EEG)信号与人脸图像的双模态情感识别领域中,通常存在两个挑战性问题:(1)如何从EEG信号中以端到端方式学习到更具显著性的情感语义特征;(2)如何充分利用双模态信息,捕捉双模态特征中情感语义的一致性与互补性。为此,提出了... 在结合脑电(EEG)信号与人脸图像的双模态情感识别领域中,通常存在两个挑战性问题:(1)如何从EEG信号中以端到端方式学习到更具显著性的情感语义特征;(2)如何充分利用双模态信息,捕捉双模态特征中情感语义的一致性与互补性。为此,提出了多层次时空特征自适应集成与特有-共享特征融合的双模态情感识别模型。一方面,为从EEG信号中获得更具显著性的情感语义特征,设计了多层次时空特征自适应集成模块。该模块首先通过双流结构捕捉EEG信号的时空特征,再通过特征相似度加权并集成各层次的特征,最后利用门控机制自适应地学习各层次相对重要的情感特征。另一方面,为挖掘EEG信号与人脸图像之间的情感语义一致性与互补性,设计了特有-共享特征融合模块,通过特有特征的学习和共享特征的学习来联合学习情感语义特征,并结合损失函数实现各模态特有语义信息和模态间共享语义信息的自动提取。在DEAP和MAHNOB-HCI两种数据集上,采用跨实验验证和5折交叉验证两种实验手段验证了提出模型的性能。实验结果表明,该模型取得了具有竞争力的结果,为基于EEG信号与人脸图像的双模态情感识别提供了一种有效的解决方案。 展开更多
关键词 双模态情感识别 脑电 人脸图像 多层次时空特征 特征融合
下载PDF
基于跨模态注意力融合的煤炭异物检测方法 被引量:1
8
作者 曹现刚 李虎 +3 位作者 王鹏 吴旭东 向敬芳 丁文韬 《工矿自动化》 CSCD 北大核心 2024年第1期57-65,共9页
为解决原煤智能化洗选过程中煤流中夹杂的异物对比度低、相互遮挡导致异物图像检测时特征提取不充分的问题,提出了一种基于跨模态注意力融合的煤炭异物检测方法。通过引入Depth图像构建RGB图像与Depth图像的双特征金字塔网络(DFPN),采... 为解决原煤智能化洗选过程中煤流中夹杂的异物对比度低、相互遮挡导致异物图像检测时特征提取不充分的问题,提出了一种基于跨模态注意力融合的煤炭异物检测方法。通过引入Depth图像构建RGB图像与Depth图像的双特征金字塔网络(DFPN),采用浅层的特征提取策略提取Depth图像的低级特征,用深度边缘与深度纹理等基础特征辅助RGB图像深层特征,以有效获得2种特征的互补信息,从而丰富异物特征的空间与边缘信息,提高检测精度;构建了基于坐标注意力与改进空间注意力的跨模态注意力融合模块(CAFM),以协同优化并融合RGB特征与Depth特征,增强网络对特征图中被遮挡异物可见部分的关注度,提高被遮挡异物检测精度;使用区域卷积神经网络(R-CNN)输出煤炭异物的分类、回归与分割结果。实验结果表明:在检测精度方面,该方法的AP相较两阶段模型中较优的Mask transfiner高3.9%;在检测效率方面,该方法的单帧检测时间为110.5 ms,能够满足异物检测实时性需求。基于跨模态注意力融合的煤炭异物检测方法能够以空间特征辅助色彩、形状与纹理等特征,准确识别煤炭异物之间及煤炭异物与输送带之间的差异,从而有效提高对复杂特征异物的检测精度,减少误检、漏检现象,实现复杂特征下煤炭异物的精确检测与像素级分割。 展开更多
关键词 煤炭异物检测 实例分割 双特征金字塔网络 跨模态注意力融合 Depth图像 坐标注意力 改进空间注意力
下载PDF
基于混合特征提取与跨模态特征预测融合的情感识别模型
9
作者 李牧 杨宇恒 柯熙政 《计算机应用》 CSCD 北大核心 2024年第1期86-93,共8页
为从多模态情感分析中有效挖掘单模态表征信息,并实现多模态信息充分融合,提出一种基于混合特征与跨模态预测融合的情感识别模型(H-MGFCT)。首先,利用Mel频率倒谱系数(MFCC)和Gammatone频率倒谱系数(GFCC)及其一阶动态特征融合得到混合... 为从多模态情感分析中有效挖掘单模态表征信息,并实现多模态信息充分融合,提出一种基于混合特征与跨模态预测融合的情感识别模型(H-MGFCT)。首先,利用Mel频率倒谱系数(MFCC)和Gammatone频率倒谱系数(GFCC)及其一阶动态特征融合得到混合特征参数提取算法(H-MGFCC),解决了语音情感特征丢失的问题;其次,利用基于注意力权重的跨模态预测模型,筛选出与语音特征相关性更高的文本特征;随后,加入对比学习的跨模态注意力机制模型对相关性高的文本特征和语音模态情感特征进行跨模态信息融合;最后,将含有文本−语音的跨模态信息特征与筛选出的相关性低的文本特征相融合,以起到信息补充的作用。实验结果表明,该模型在公开IEMOCAP(Interactive EMotional dyadic MOtion CAPture)、CMU-MOSI(CMU-Multimodal Opinion Emotion Intensity)、CMU-MOSEI(CMU-Multimodal Opinion Sentiment Emotion Intensity)数据集上与加权决策层融合的语音文本情感识别(DLFT)模型相比,准确率分别提高了2.83、2.64和3.05个百分点,验证了该模型情感识别的有效性。 展开更多
关键词 特征提取 多模态融合 情感识别 跨模态融合 注意力机制
下载PDF
基于改进Grabcut分割与多特征决策融合的电力线放电痕迹识别
10
作者 邹国锋 邵楠 +2 位作者 王连辉 梁栋 徐丙垠 《科学技术与工程》 北大核心 2024年第28期12239-12250,共12页
电力线触树故障中,导线表面的遗留痕迹是事故防治和责任认定的重要依据,但目前中外针对触树后电力线放电痕迹特征规律和辨识方法的研究极其匮乏。为此,搭建10 kV中压线路触树放电实验平台,采集放电后的导线表面痕迹图像,并对导线表面痕... 电力线触树故障中,导线表面的遗留痕迹是事故防治和责任认定的重要依据,但目前中外针对触树后电力线放电痕迹特征规律和辨识方法的研究极其匮乏。为此,搭建10 kV中压线路触树放电实验平台,采集放电后的导线表面痕迹图像,并对导线表面痕迹特征进行系统分析,为人工巡检和智能化痕迹识别提供基础依据。然后,提出改进型Grabcut前景提取方法,综合利用U^(2)Net的自动分割特点和Grabcut的高精度优势,解决Grabcut算法中初始框无法自动确定的问题,实现复杂背景下导线痕迹区域自动精准分割。最后,提出基于低层纹理、颜色特征和高层深度特征的导线表面痕迹全面表征,并采用多数投票规则实现低层和高层特征识别结果决策融合,获得导线痕迹辨识结果,测试实验中平均识别准确率达到91.68%,证明了方法的有效性。 展开更多
关键词 树线放电 前景提取 低层特征 深度特征 决策融合 痕迹识别
下载PDF
基于CLIP和交叉注意力的多模态情感分析模型
11
作者 陈燕 赖宇斌 +2 位作者 肖澳 廖宇翔 陈宁江 《郑州大学学报(工学版)》 CAS 北大核心 2024年第2期42-50,共9页
针对多模态情感分析中存在的标注数据量少、模态间融合不充分以及信息冗余等问题,提出了一种基于对比语言-图片训练(CLIP)和交叉注意力(CA)的多模态情感分析(MSA)模型CLIP-CA-MSA。首先,该模型使用CLIP预训练的BERT模型、PIFT模型来提... 针对多模态情感分析中存在的标注数据量少、模态间融合不充分以及信息冗余等问题,提出了一种基于对比语言-图片训练(CLIP)和交叉注意力(CA)的多模态情感分析(MSA)模型CLIP-CA-MSA。首先,该模型使用CLIP预训练的BERT模型、PIFT模型来提取视频特征向量与文本特征;其次,使用交叉注意力机制将图像特征向量和文本特征向量进行交互,以加强不同模态之间的信息传递;最后,利用不确定性损失特征融合后计算输出最终的情感分类结果。实验结果表明:该模型比其他多模态模型准确率提高5百分点至14百分点,F1值提高3百分点至12百分点,验证了该模型的优越性,并使用消融实验验证该模型各模块的有效性。该模型能够有效地利用多模态数据的互补性和相关性,同时利用不确定性损失来提高模型的鲁棒性和泛化能力。 展开更多
关键词 情感分析 多模态学习 交叉注意力 CLIP模型 TRANSFORMER 特征融合
下载PDF
改进YOLOv8的农作物叶片病虫害识别算法
12
作者 张书贵 陈书理 赵展 《中国农机化学报》 北大核心 2024年第7期255-260,共6页
针对传统检测网络难以准确、高效地提取农作物叶片病虫害特征信息的问题,通过改进YOLOv8网络,提出一种多层级多尺度特征融合的农作物叶片病虫害识别算法。通过学习不同层级特征直接的特征关系,构建多层级特征编码模块,学习全面的特征表... 针对传统检测网络难以准确、高效地提取农作物叶片病虫害特征信息的问题,通过改进YOLOv8网络,提出一种多层级多尺度特征融合的农作物叶片病虫害识别算法。通过学习不同层级特征直接的特征关系,构建多层级特征编码模块,学习全面的特征表达;在Transformer的基础上设计多尺度空间—通道注意力模块,利用学习细粒度、粗粒度等多尺度全面的特征表达模式,捕获不同尺度特征之间的互补关系,并将所有特征表示有效融合起来,构成完整的图像特征表示,进而获取更佳的识别结果。在Plant Village公开数据集进行试验验证,结果表明:提出的改进方法能够有效提升配准精度,准确地识别出农作物叶片上同时存在的不同病虫害,对番茄叶片检测的mAP 0.5达到88.74%,比传统YOLOv8方法提升8.53%,且计算耗时没有明显增加。消融试验也充分证明所提各个模块的有效性,能够更好地实现高精度识别叶片病虫害,为农田智慧化管理提供有力支持和保障。 展开更多
关键词 叶片病虫害识别 多层级特征编码 多尺度特征融合 通道注意力 特征表达
下载PDF
基于知识图谱增强的领域多模态实体识别
13
作者 李华昱 张智康 +1 位作者 闫阳 岳阳 《计算机工程》 CAS CSCD 北大核心 2024年第8期31-39,共9页
针对特定领域中文命名实体识别存在的局限性,提出一种利用学科图谱和图像提高实体识别准确率的模型,旨在利用领域图谱和图像提高计算机学科领域短文本中实体识别的准确率。使用基于BERT-BiLSTMAttention的模型提取文本特征,使用ResNet15... 针对特定领域中文命名实体识别存在的局限性,提出一种利用学科图谱和图像提高实体识别准确率的模型,旨在利用领域图谱和图像提高计算机学科领域短文本中实体识别的准确率。使用基于BERT-BiLSTMAttention的模型提取文本特征,使用ResNet152提取图像特征,并使用分词工具获得句子中的名词实体。通过BERT将名词实体与图谱节点进行特征嵌入,利用余弦相似度查找句子中的分词在学科图谱中最相似的节点,保留到该节点距离为1的邻居节点,生成最佳匹配子图,作为句子的语义补充。使用多层感知机(MLP)将文本、图像和子图3种特征映射到同一空间,并通过独特的门控机制实现文本和图像的细粒度跨模态特征融合。最后,通过交叉注意力机制将多模态特征与子图特征进行融合,输入解码器进行实体标记。在Twitter2015、Twitter2017和自建计算机学科数据集上同基线模型进行实验比较,结果显示,所提方法在领域数据集上的精确率、召回率和F1值分别可达88.56%、87.47%和88.01%,与最优基线模型相比,F1值提高了1.36个百分点,表明利用领域知识图谱能有效提升实体识别效果。 展开更多
关键词 命名实体识别 多模态 领域 知识图谱 跨模态特征融合 注意力机制
下载PDF
DCFF-Net:基于人体骨骼点的双流跨级特征融合动作识别网络
14
作者 余翔 连世龙 《现代电子技术》 北大核心 2024年第23期81-88,共8页
在基于骨骼的动作识别任务中,骨骼点特征对于动作识别来说至关重要。针对现有方法存在输入特征不足、特征融合策略粗糙、参数量大等问题,提出一种基于人体骨骼点的双流跨级特征融合网络。首先,针对特征输入,用欧氏距离骨架特征(EDSF)和... 在基于骨骼的动作识别任务中,骨骼点特征对于动作识别来说至关重要。针对现有方法存在输入特征不足、特征融合策略粗糙、参数量大等问题,提出一种基于人体骨骼点的双流跨级特征融合网络。首先,针对特征输入,用欧氏距离骨架特征(EDSF)和余弦角度骨架特征(CASF)两种局部关节特征来表征人体骨骼序列,帮助网络识别不同体态和体态相似的人体动作;其次,考虑到部分动作类别的运动轨迹与全局运动的相关性,引入全局运动特征(GMF)弥补局部关节特征在此类动作上识别精度不足的问题;此外,为了加强不同特征之间的信息交互,提出一种跨级特征融合模块(CLFF),对不同特征层、不同属性的动作特征进行特征互补,丰富了网络的特征形式;最后,网络采用一维卷积(Conv1D)进行搭建,减轻了模型的计算负担。实验结果表明,所提模型在JHMDB身体动作数据集上获得了84.1%的识别准确率,在SHREC手势动作数据集上分别获得了97.4%(粗糙数据集)和95%(精确数据集)的识别准确率,取得了与先进方法相当的性能。 展开更多
关键词 动作识别 骨架特征 运动轨迹 局部关节特征 全局运动特征 跨级特征融合
下载PDF
基于复合跨模态交互网络的时序多模态情感分析
15
作者 杨力 钟俊弘 +1 位作者 张赟 宋欣渝 《计算机科学与探索》 CSCD 北大核心 2024年第5期1318-1327,共10页
针对多模态情感分析中存在的不同模态间语义特征差异性导致模态融合不充分、交互性弱等问题,通过研究分析不同模态之间存在的潜在关联性,搭建一种基于复合跨模态交互网络的时序多模态情感分析(CCIN-SA)模型。该模型首先使用双向门控循... 针对多模态情感分析中存在的不同模态间语义特征差异性导致模态融合不充分、交互性弱等问题,通过研究分析不同模态之间存在的潜在关联性,搭建一种基于复合跨模态交互网络的时序多模态情感分析(CCIN-SA)模型。该模型首先使用双向门控循环单元和多头注意力机制提取具有上下文语义信息的文本、视觉和语音模态时序特征;然后,设计跨模态注意力交互层,利用辅助模态的低阶信号不断强化目标模态,使得目标模态学习到辅助模态的信息,捕获模态间的潜在适应性;再将增强后的特征输入到复合特征融合层,通过条件向量进一步捕获不同模态间的相似性,增强重要特征的关联程度,挖掘模态间更深层次的交互性;最后,利用多头注意力机制将复合跨模态强化后的特征与低阶信号做拼接融合,提高模态内部重要特征的权重,保留初始模态独有的特征信息,将得到的多模态融合特征进行最终的情感分类任务。在CMU-MOSI和CMUMOSEI数据集上进行模型评估,结果表明,CCIN-SA模型相比其他现有模型在准确率和F1指标上均有提高,能够有效挖掘不同模态间的关联性,做出更加准确的情感判断。 展开更多
关键词 跨模态交互 注意力机制 特征融合 复合融合层 多模态情感分析
下载PDF
基于跨模态情感联合增强网络的多模态情感分析方法
16
作者 王植 张珏 《甘肃科学学报》 2024年第4期146-152,共7页
多模态情感分析是人工智能领域重要的研究方向之一,旨在利用多模态数据判断用户情感。现有的大多数方法忽略了不同模态数据之间的异质性,导致情感分析结果出现偏差。针对以上问题提出一种基于跨模态情感联合增强网络的多模态情感分析方... 多模态情感分析是人工智能领域重要的研究方向之一,旨在利用多模态数据判断用户情感。现有的大多数方法忽略了不同模态数据之间的异质性,导致情感分析结果出现偏差。针对以上问题提出一种基于跨模态情感联合增强网络的多模态情感分析方法。首先,利用3种深度神经网络预训练模型提取不同模态的语义特征,并通过双向长短期记忆网络挖掘其单模态上下文时序信息;其次,设计了一种跨模态情感联合增强模块,实现融合文本模态和视觉模态特征生成情感极性语义特征,融合文本模态和音频模态信息生成情感强度语义特征,并以情感极性作为方向情感强度表示增幅联合增强情感语义。通过两个公共基准数据集CMU-MOSI和CMU-MOSEI的实验结果表明,所提出的跨模态情感联合增强网络可以获得比相关方法更好的性能。 展开更多
关键词 跨模态 多模态情感分析 语义特征 特征融合
下载PDF
特征融合的装修案例跨模态检索方法
17
作者 亢洁 刘威 《智能系统学报》 CSCD 北大核心 2024年第2期429-437,共9页
目前家装客服系统中主要依靠人工方式进行装修案例检索,导致该系统不能满足用户对咨询服务快捷、及时的需求而且人力成本高,故提出一种基于特征融合的装修案例跨模态检索算法。针对多模态数据的语义信息挖掘不充分,模型检索精度低等问题... 目前家装客服系统中主要依靠人工方式进行装修案例检索,导致该系统不能满足用户对咨询服务快捷、及时的需求而且人力成本高,故提出一种基于特征融合的装修案例跨模态检索算法。针对多模态数据的语义信息挖掘不充分,模型检索精度低等问题,对现有的风格聚合模块进行改进,在原始模块中引入通道注意力机制,以此来为每组装修案例中不同图片的特征向量添加合适的权重,从而增强包含更多有用信息的重要特征并削弱其他不重要的特征。同时,为充分利用多模态信息,设计一种适用于检索场景下的多模态特征融合模块,该模块能够自适应地控制2种不同模态的特征向量进行一系列的融合操作,以实现跨模态数据间的知识流动与共享,从而生成语义更丰富、表达能力更强的特征向量,进一步提升模型的检索性能。在自建的装修案例多模态数据集上将该方法与其他方法进行比较,试验结果表明本文方法在装修案例检索上具有更优越的性能。 展开更多
关键词 家装客服系统 装修案例检索 跨模态检索 风格聚合 多模态 特征融合 通道注意力机制 语义信息
下载PDF
多层次特征融合与超图卷积的生成对抗壁画修复
18
作者 陈永 陶美风 赵梦雪 《工程科学与技术》 EI CAS CSCD 北大核心 2024年第3期208-218,共11页
针对现有壁画深度学习修复方法,存在上下文信息关注不足及结果欠佳的问题,提出了一种多层次特征融合与超图卷积的生成对抗修复模型。首先,利用金字塔特征分层对壁画进行多尺度层次特征提取,并采用混合空洞卷积单元扩大多层特征提取感受... 针对现有壁画深度学习修复方法,存在上下文信息关注不足及结果欠佳的问题,提出了一种多层次特征融合与超图卷积的生成对抗修复模型。首先,利用金字塔特征分层对壁画进行多尺度层次特征提取,并采用混合空洞卷积单元扩大多层特征提取感受野,以克服单尺度卷积操作对于壁画特征提取能力不足的问题。然后,提出多分支短链融合层及门控机制融合多分支特征方法,将相邻分支间的特征信息进行融合,使融合后的壁画特征图中既有同分支的特征,又有相邻分支的特征,以提高特征信息的利用率;并引入门控机制对特征进行选择融合,以减少细节信息的丢失。接着,将融合特征通过卷积长短期记忆网络(ConvLSTM)特征注意力方法,增强对壁画上下文信息的关注。最后,设计超图卷积壁画长程特征增强模块,通过在编码器和解码器的跳跃连接之间建立超图卷积层,利用超图卷积捕获编码器的空间特征信息,并将其迁移到解码器中,有助于解码器更好地生成壁画图像,以加强特征的长程依赖关系,并与SN-PatchGAN判别器对抗博弈从而完成修复。通过敦煌壁画数字化修复实验,结果表明:所提方法客观评价优于对比算法,对于破损壁画修复结果更加清晰自然。 展开更多
关键词 壁画修复 多层次特征 多分支短链融合 超图卷积 卷积长短期记忆网络
下载PDF
融合项目特征级信息的稀疏兴趣网络序列推荐
19
作者 胡胜利 武静雯 林凯 《计算机工程与设计》 北大核心 2024年第6期1743-1749,共7页
在以往提取多兴趣嵌入的序列推荐模型中仅能通过聚类的方法发现少量兴趣概念,忽视项目交互序列中特征级信息对最终推荐结果的影响。针对此问题,对传统的多兴趣序列推荐模型进行改进,提出一种融合项目特征级信息的稀疏兴趣网络序列推荐... 在以往提取多兴趣嵌入的序列推荐模型中仅能通过聚类的方法发现少量兴趣概念,忽视项目交互序列中特征级信息对最终推荐结果的影响。针对此问题,对传统的多兴趣序列推荐模型进行改进,提出一种融合项目特征级信息的稀疏兴趣网络序列推荐模型。实验结果表明,相比其它模型,该模型可以更好捕捉用户的多样化偏好并缓解冷启动问题。在给定数据集上,该模型比传统的序列推荐模型在命中率上平均提高了6.4%,归一化折损累计增益平均提高了8.7%。 展开更多
关键词 深度学习 序列推荐 多兴趣 稀疏兴趣网络 嵌入表征 特征级信息 特征融合
下载PDF
基于特征增强及多层次融合的火灾火焰检测
20
作者 赵杰 汪洪法 吴凯 《中国安全生产科学技术》 CAS CSCD 北大核心 2024年第1期93-99,共7页
为提升火灾火焰识别检测方法性能,将传统图像处理与神经网络结合,提出1种基于特征增强及多层次融合的轻量级火灾火焰检测模型。模型利用多种色彩空间转换算法增强火焰特征信息,并设计双阶段多层次特征提取融合结构,配合空间注意力机制... 为提升火灾火焰识别检测方法性能,将传统图像处理与神经网络结合,提出1种基于特征增强及多层次融合的轻量级火灾火焰检测模型。模型利用多种色彩空间转换算法增强火焰特征信息,并设计双阶段多层次特征提取融合结构,配合空间注意力机制对火焰信息由粗到精进行提取;同时,针对火灾火焰特点,引入由浅到深逐步融合的自适应多尺度融合结构,提升对不同阶段火灾目标的检测精度。研究结果表明:本文模型可有效提升火灾火焰的检测效果,且具有更高的稳定性和鲁棒性,可准确高效地实现火灾火焰检测。研究结果可为现有火灾检测设备提供更准确的识别结果,从而更好地预防火灾事故发生。 展开更多
关键词 火灾火焰检测 神经网络 特征增强 多层次融合 自适应多尺度
下载PDF
上一页 1 2 24 下一页 到第
使用帮助 返回顶部