期刊文献+
共找到1,215篇文章
< 1 2 61 >
每页显示 20 50 100
Performance Comparison of Vision Transformer- and CNN-Based Image Classification Using Cross Entropy: A Preliminary Application to Lung Cancer Discrimination from CT Images
1
作者 Eri Matsuyama Haruyuki Watanabe Noriyuki Takahashi 《Journal of Biomedical Science and Engineering》 2024年第9期157-170,共14页
This study evaluates the performance and reliability of a vision transformer (ViT) compared to convolutional neural networks (CNNs) using the ResNet50 model in classifying lung cancer from CT images into four categori... This study evaluates the performance and reliability of a vision transformer (ViT) compared to convolutional neural networks (CNNs) using the ResNet50 model in classifying lung cancer from CT images into four categories: lung adenocarcinoma (LUAD), lung squamous cell carcinoma (LUSC), large cell carcinoma (LULC), and normal. Although CNNs have made significant advancements in medical imaging, their limited capacity to capture long-range dependencies has led to the exploration of ViTs, which leverage self-attention mechanisms for a more comprehensive global understanding of images. The study utilized a dataset of 748 lung CT images to train both models with standardized input sizes, assessing their performance through conventional metrics—accuracy, precision, recall, F1 score, specificity, and AUC—as well as cross entropy, a novel metric for evaluating prediction uncertainty. Both models achieved similar accuracy rates (95%), with ViT demonstrating a slight edge over ResNet50 in precision and F1 scores for specific classes. However, ResNet50 exhibited higher recall for LULC, indicating fewer missed cases. Cross entropy analysis showed that the ViT model had lower average uncertainty, particularly in the LUAD, Normal, and LUSC classes, compared to ResNet50. This finding suggests that ViT predictions are generally more reliable, though ResNet50 performed better for LULC. The study underscores that accuracy alone is insufficient for model comparison, as cross entropy offers deeper insights into the reliability and confidence of model predictions. The results highlight the importance of incorporating cross entropy alongside traditional metrics for a more comprehensive evaluation of deep learning models in medical image classification, providing a nuanced understanding of their performance and reliability. While the ViT outperformed the CNN-based ResNet50 in lung cancer classification based on cross-entropy values, the performance differences were minor and may not hold clinical significance. Therefore, it may be premature to consider replacing CNNs with ViTs in this specific application. 展开更多
关键词 Lung Cancer Classification Vision transformers Convolutional Neural Networks cross Entropy Deep Learning
下载PDF
Transformer-CNN特征跨注意力融合学习的行人重识别
2
作者 项俊 张金城 +1 位作者 江小平 侯建华 《计算机工程与应用》 CSCD 北大核心 2024年第16期94-104,共11页
卷积神经网络(convolutional neural network,CNN)关注局部特征,难以获得全局结构信息,Transformer网络建模长距离的特征依赖,但易忽略局部特征细节。提出了一种跨注意力融合学习的行人重识别算法,利用CNN和Transformer特征学习网络的特... 卷积神经网络(convolutional neural network,CNN)关注局部特征,难以获得全局结构信息,Transformer网络建模长距离的特征依赖,但易忽略局部特征细节。提出了一种跨注意力融合学习的行人重识别算法,利用CNN和Transformer特征学习网络的特点,在丰富行人局部特征的同时改善特征的全局表达能力。该模型由三个部分构成:CNN分支主要提取局部细节信息;Transformer分支侧重于关注全局特征信息;跨注意力融合分支通过自注意力机制计算上述两个分支特征的相关性,进而实现特征融合,最终提高模型的表征能力。剥离实验以及在Market1501和DukeMTMC-reID数据集的实验结果证明了所提方法的有效性。 展开更多
关键词 行人重识别 卷积神经网络(CNN) transformER 跨注意力融合学习
下载PDF
基于Transformer生成对抗网络的跨模态哈希检索算法
3
作者 雷蕾 徐黎明 《南阳理工学院学报》 2024年第4期38-44,共7页
考虑生成对抗网络在保持跨模态数据之间的流形结构的优势,并结合Transformer利用自注意力和无须使用卷积的优点,提出一种基于Transformer生成对抗网络的跨模态哈希检索算法。首先在ImageNet数据集上预训练Vision Transformer框架,并将... 考虑生成对抗网络在保持跨模态数据之间的流形结构的优势,并结合Transformer利用自注意力和无须使用卷积的优点,提出一种基于Transformer生成对抗网络的跨模态哈希检索算法。首先在ImageNet数据集上预训练Vision Transformer框架,并将其作为图像特征提取的主干网络,然后将不同模态的数据分割为共享特征和私有特征。接着,构建对抗学习模块减少不同模态的共享特征的分布距离与保持语义一致性,同时增大不同模态的私有特征分布距离与保持语义非一致性。最后将通用的特征表示映射为紧凑的哈希码,实现跨模态哈希检索。实验结果表明,在公共数据集上,所提算法优于对比算法。 展开更多
关键词 transformER 生成对抗网络 跨模态检索 哈希编码 语义保持
下载PDF
结合视觉Transformer和CNN的道路裂缝检测方法
4
作者 代少升 刘科生 余自安 《半导体光电》 CAS 北大核心 2024年第2期252-260,共9页
提出了一种结合视觉Transformer和CNN的道路裂缝检测方法。利用CNN来捕获局部的细节信息,同时利用视觉Transformer来捕获全局特征。通过设计的Fusion特征融合模块将两者提取的特征有机地结合在一起,从而解决了单独使用CNN或视觉Transfor... 提出了一种结合视觉Transformer和CNN的道路裂缝检测方法。利用CNN来捕获局部的细节信息,同时利用视觉Transformer来捕获全局特征。通过设计的Fusion特征融合模块将两者提取的特征有机地结合在一起,从而解决了单独使用CNN或视觉Transformer方法存在的局限。最终将结果传递至交互式解码器,生成道路裂缝的检测结果。实验结果表明,无论是在公开的数据集上还是在自建的数据集上,相较于单独使用CNN或视觉Transformer的方法,所提出的方法在道路裂缝检测任务中有更好的效果。 展开更多
关键词 道路裂缝检测 视觉transformer和CNN 动态加权交叉特征融合
下载PDF
基于多模态融合和自适应剪枝Transformer的脑肿瘤图像分割算法 被引量:1
5
作者 姚宗亮 黄荣 +2 位作者 董爱华 韩芳 王青云 《宁夏大学学报(自然科学版)》 CAS 2024年第1期16-24,共9页
脑肿瘤是目前世界上最致命的肿瘤之一,所以脑肿瘤图像的自动分割在临床诊疗中变得日益重要.近年来,基于CNN和Transformer的脑肿瘤分割方法在医学图像分割领域取得了令人欣喜的成就.然而,大多数方法没有充分利用脑肿瘤多模态间的互补性... 脑肿瘤是目前世界上最致命的肿瘤之一,所以脑肿瘤图像的自动分割在临床诊疗中变得日益重要.近年来,基于CNN和Transformer的脑肿瘤分割方法在医学图像分割领域取得了令人欣喜的成就.然而,大多数方法没有充分利用脑肿瘤多模态间的互补性和差异性,并且模型中的Transformer在捕获远程依赖性的同时,忽略了其较大的计算复杂性、冗余依赖性等问题.针对此问题,提出一种基于多模态融合和自适应剪枝Transformer的脑肿瘤图像分割方法(MF-MAPT Swin UNETR),其中多模态融合模块可以充分学习性质相近的模态间信息和不同模态不同尺度的特征变化,为后续分割提供了充分的准备;基于多模态的自适应剪枝Transformer可以降低计算复杂度,对提升性能有一定的帮助,将MF-MAPT Swin UNETR模型在两个公共数据集上进行了实验验证,结果表明,该模型较最先进的方法整体具有突出的分割性能. 展开更多
关键词 脑肿瘤分割 transformER 模态交叉连接 多尺度特征融合 token融合 自适应剪枝
下载PDF
融合图像信息的跨模态Transformer点云补全算法
6
作者 何星 朱哲 +3 位作者 燕雪峰 郭延文 宫丽娜 魏明强 《计算机辅助设计与图形学学报》 EI CSCD 北大核心 2024年第7期1026-1033,共8页
针对三维传感器(如LiDAR、深度相机)获取的点云往往残缺不全,需要进行补全处理,而单模态方法存在的补全结果细节不丰富、结构不完整等问题,提出一种融合图像信息的跨模态Transformer点云补全算法.首先采用点云分支和图像分支分别提取点... 针对三维传感器(如LiDAR、深度相机)获取的点云往往残缺不全,需要进行补全处理,而单模态方法存在的补全结果细节不丰富、结构不完整等问题,提出一种融合图像信息的跨模态Transformer点云补全算法.首先采用点云分支和图像分支分别提取点云特征和图像特征,其中,点云分支采用PoinTr为骨干网络,图像分支采用7层卷积;然后通过特征融合模块融合点云特征和图像特征,由粗到精地生成全分辨率的点云.在ShapeNet-ViPC数据集上进行实验的结果表明,所提算法的可视化结果优于单模态点云补全方法和目前仅有的跨模态点云补全方法ViPC,且在大部分测试类别上的CD-L_(2)量化指标优于ViPC;平均CD-L_(2)为2.74,比ViPC低17%.为了便于研究人员评估和使用,文中算法可通过https://github.com/Starak-x/ImPoinTr开源获取. 展开更多
关键词 点云补全 transformER 跨模态
下载PDF
基于跨尺度Vision Transformer的深度哈希算法
7
作者 姚佩昀 于炯 +2 位作者 李雪 李梓杨 陈鹏程 《计算机应用研究》 CSCD 北大核心 2024年第11期3477-3483,共7页
为了解决当前深度哈希算法提取跨尺度特征能力不足以及难以拟合数据的全局相似度分布问题,提出了一种基于跨尺度Vision Transformer的深度哈希算法。首先,利用金字塔卷积和跨尺度注意力机制构建了一种多层次编码器,来捕获图像丰富的语... 为了解决当前深度哈希算法提取跨尺度特征能力不足以及难以拟合数据的全局相似度分布问题,提出了一种基于跨尺度Vision Transformer的深度哈希算法。首先,利用金字塔卷积和跨尺度注意力机制构建了一种多层次编码器,来捕获图像丰富的语义信息;其次,提出了一种基于代理的深度哈希算法,该算法为每个类别生成哈希代理,使得哈希码可以学习具有鉴别性的类别特征,从而缩小与同类别哈希代理的距离并拟合数据全局相似性分布;最后,在哈希代理与哈希码之间添加角度边距项,扩大类内相似性和类间差异性,以生成具有高判别性的哈希码。通过在CIFAR-10、ImageNet-100、NUS-Wide、MS COCO上进行的实验结果表明,该算法的平均检索精度比次优方法分别提升4.42%、19.61%、0.35%、15.03%,验证了该算法的有效性。 展开更多
关键词 深度哈希 视觉注意力 哈希代理 跨尺度 图像检索
下载PDF
面向多模态情感分析的低秩跨模态Transformer
8
作者 孙杰 车文刚 高盛祥 《计算机工程与科学》 CSCD 北大核心 2024年第10期1888-1900,共13页
多模态情感分析将基于文本的方法扩展到包含视觉和语音信号的多模态环境,已成为情感计算领域的热门研究方向。在预训练-微调的背景下,将预训练语言模型微调到多模态情感分析领域是必要的。然而,微调大规模预训练语言模型仍然很昂贵,而... 多模态情感分析将基于文本的方法扩展到包含视觉和语音信号的多模态环境,已成为情感计算领域的热门研究方向。在预训练-微调的背景下,将预训练语言模型微调到多模态情感分析领域是必要的。然而,微调大规模预训练语言模型仍然很昂贵,而且跨模态交互不足会影响性能。因此,提出低秩跨模态Transformer(LRCMT)来解决这些问题。受大型预训练语言模型在适应不同的自然语言处理下游任务时所呈现的低秩参数更新现象启发,LRCMT在每个冻结层中注入可训练的低秩参数矩阵,这大大减少了可训练参数,同时允许动态单词表示。此外,设计了跨模态交互模块,其中视觉和语音模态在与文本模态交互之前首先相互交互,从而实现更充分的跨模态融合。在多模态情感分析基准数据集上的大量实验表明了LRCMT的有效性和高效性。仅微调约全参数量0.76%的参数,LRCMT实现了与完全微调相当或更高的性能。此外,它还在许多指标上获得了最先进或具有竞争力的结果。消融实验表明,低秩微调与充分的跨模态交互有助于提升LRCMT的性能。总之,本文的工作降低了预训练语言模型在多模态任务上的微调成本,并为高效和有效的跨模态融合提供了思路。 展开更多
关键词 多模态 情感分析 预训练语言模型 跨模态transformer
下载PDF
一种融合CNN与Transformer的高鲁棒性目标跟踪算法
9
作者 刘沛津 付雪峰 +2 位作者 孙浩峰 何林 刘淑婕 《系统仿真学报》 CAS CSCD 北大核心 2024年第8期1854-1868,共15页
针对因目标物体形变、尺度变化、快速运动和遮挡等导致目标跟踪算法性能下降的问题,基于孪生网络架构提出了一种融合CNN与Transformer的高鲁棒性目标跟踪算法。在特征提取阶段,使用标准卷积提取浅层局部特征信息,在深层网络中设计了一... 针对因目标物体形变、尺度变化、快速运动和遮挡等导致目标跟踪算法性能下降的问题,基于孪生网络架构提出了一种融合CNN与Transformer的高鲁棒性目标跟踪算法。在特征提取阶段,使用标准卷积提取浅层局部特征信息,在深层网络中设计了一种类卷积Transformer模块建模全局信息,并采用滑窗方式计算Transformer中的像素值,大大降低了计算量。在特征聚合阶段,采用多头交叉注意力模块构建特征增强与聚合网络,滤除干扰信息,突出与模板相关的信息以提高特征的判别性。与目前的主流算法相比,所提算法在OTB2015数据集上的形变、尺度变化、快速运动和遮挡4种不同挑战下的评估指标均为最优。在GOT-10K数据集上的平均重叠度为70.8%,相比TransT和SiamR-CNN算法分别提高3.7%和5.9%。在LaSOT、UAV123数据集上成功率分别为67.7%、71.9%,相比TransT和SiamR-CNN算法分别提高2.8%、2.8%和2.9%、7%。在VOT2018和VOT2019数据集上的鲁棒性评估结果,所提算法跟踪失败次数最少,鲁棒性指标得分分别为0.112和0.266,相比Ocean算法分别提高0.5%和5%,进一步验证了所提算法具有更高鲁棒性。 展开更多
关键词 目标跟踪 孪生网络 transformER 多头交叉注意力机制 高鲁棒性
下载PDF
DCFNet:An Effective Dual-Branch Cross-Attention Fusion Network for Medical Image Segmentation
10
作者 Chengzhang Zhu Renmao Zhang +5 位作者 Yalong Xiao Beiji Zou Xian Chai Zhangzheng Yang Rong Hu Xuanchu Duan 《Computer Modeling in Engineering & Sciences》 SCIE EI 2024年第7期1103-1128,共26页
Automatic segmentation of medical images provides a reliable scientific basis for disease diagnosis and analysis.Notably,most existing methods that combine the strengths of convolutional neural networks(CNNs)and Trans... Automatic segmentation of medical images provides a reliable scientific basis for disease diagnosis and analysis.Notably,most existing methods that combine the strengths of convolutional neural networks(CNNs)and Transformers have made significant progress.However,there are some limitations in the current integration of CNN and Transformer technology in two key aspects.Firstly,most methods either overlook or fail to fully incorporate the complementary nature between local and global features.Secondly,the significance of integrating the multiscale encoder features from the dual-branch network to enhance the decoding features is often disregarded in methods that combine CNN and Transformer.To address this issue,we present a groundbreaking dual-branch cross-attention fusion network(DCFNet),which efficiently combines the power of Swin Transformer and CNN to generate complementary global and local features.We then designed the Feature Cross-Fusion(FCF)module to efficiently fuse local and global features.In the FCF,the utilization of the Channel-wise Cross-fusion Transformer(CCT)serves the purpose of aggregatingmulti-scale features,and the Feature FusionModule(FFM)is employed to effectively aggregate dual-branch prominent feature regions from the spatial perspective.Furthermore,within the decoding phase of the dual-branch network,our proposed Channel Attention Block(CAB)aims to emphasize the significance of the channel features between the up-sampled features and the features generated by the FCFmodule to enhance the details of the decoding.Experimental results demonstrate that DCFNet exhibits enhanced accuracy in segmentation performance.Compared to other state-of-the-art(SOTA)methods,our segmentation framework exhibits a superior level of competitiveness.DCFNet’s accurate segmentation of medical images can greatly assist medical professionals in making crucial diagnoses of lesion areas in advance. 展开更多
关键词 Convolutional neural networks Swin transformer dual branch medical image segmentation feature cross fusion
下载PDF
改进视觉Transformer的视频插帧方法
11
作者 石昌通 单鸿涛 +3 位作者 郑光远 张玉金 刘怀远 宗智浩 《计算机应用研究》 CSCD 北大核心 2024年第4期1252-1257,共6页
针对现有的视频插帧方法无法有效处理大运动和复杂运动场景的问题,提出了一种改进视觉Transformer的视频插帧方法。该方法融合了基于跨尺度窗口的注意力和可分离的时空局部注意力,增大了注意力的感受野并聚合了多尺度信息;对时空依赖和... 针对现有的视频插帧方法无法有效处理大运动和复杂运动场景的问题,提出了一种改进视觉Transformer的视频插帧方法。该方法融合了基于跨尺度窗口的注意力和可分离的时空局部注意力,增大了注意力的感受野并聚合了多尺度信息;对时空依赖和远程像素依赖关系进行联合建模,进而增强了模型对大运动场景的处理能力。实验结果表明,该方法在Vimeo90K测试集和DAVIS数据集上的PSNR指标分别达到了37.13 dB和28.28 dB,SSIM指标分别达到了0.978和0.891。同时,可视化结果表明,该方法针对存在大运动、复杂运动和遮挡场景的视频能产生清晰合理的插帧结果。 展开更多
关键词 视频插帧 transformER 基于跨尺度窗口的注意力 大运动 复杂运动
下载PDF
高效跨域的Transformer小样本语义分割网络 被引量:1
12
作者 方红 李德生 蒋广杰 《计算机工程与应用》 CSCD 北大核心 2024年第4期142-152,共11页
小样本语义分割旨在仅使用数个标注样本学习目标类别特征并完成分割任务。主流研究存在的主要问题是:训练效率低下,训练和测试在同一数据域。为此构建了一种基于Transformer的高效、跨域的小样本语义分割网络SGFNet。在编码层,使用共享... 小样本语义分割旨在仅使用数个标注样本学习目标类别特征并完成分割任务。主流研究存在的主要问题是:训练效率低下,训练和测试在同一数据域。为此构建了一种基于Transformer的高效、跨域的小样本语义分割网络SGFNet。在编码层,使用共享权重的MixVisionTransformer构建孪生网络,用于提取支持集和查询集的图像特征;在关系计算层,通过计算支持集图像特征向量与其对应mask的哈达玛积,提取目标类别的高维特征,并与查询集图像特征进行关系计算;在解码层,改进基于MLP的解码器,提出了残差解码器,将不同层级的特征解码得到最终分割结果。实验表明,该模型只需要在FSS-1000数据集上使用单张3090 GPU训练1.5~4.0 h,即可在FSS-1000数据集上获得最优结果1-shot mIoU 87.0%,在PASCAL-5i和COCO-20i数据集进行跨域测试达到非跨域的效果,1-shot mIoU分别为60.4%和33.0%,证明了该模型高效且跨域。 展开更多
关键词 小样本语义分割(FSS) 跨域 transformER 小样本学习(FSL) 语义分割
下载PDF
基于双交叉注意力Transformer网络的小样本图像语义分割
13
作者 刘玉 郭迎春 +1 位作者 朱叶 于明 《液晶与显示》 CAS CSCD 北大核心 2024年第11期1494-1505,共12页
小样本图像语义分割只用少量样本就能分割出新类别。针对现有方法中语义信息挖掘不充分的问题,本文提出一种基于双交叉注意力网络的小样本图像语义分割方法。该方法采用Transformer结构,利用双交叉注意力模块同时从通道和空间维度上学... 小样本图像语义分割只用少量样本就能分割出新类别。针对现有方法中语义信息挖掘不充分的问题,本文提出一种基于双交叉注意力网络的小样本图像语义分割方法。该方法采用Transformer结构,利用双交叉注意力模块同时从通道和空间维度上学习多尺度查询特征和支持特征的远程依赖性。首先,本文提出通道交叉注意力模块,并结合位置交叉注意力模块构成双交叉注意力模块。其中,通道交叉注意力模块用于学习查询和支持特征之间的通道语义相互关系,位置交叉注意力模块用来捕获查询和支持特征之间的远程上下文相关性。然后,通过多个双交叉注意力模块能够为查询图像提供包含丰富语义信息的多尺度交互特征。最后,本文引入辅助监督损失,并通过上采样和残差连接将多尺度交互特征连接至解码器以得到准确的新类分割结果。本文方法在数据集PASCAL-5i上的mIoU达到了69.9%(1-shot)和72.4%(5-shot),在数据集COCO-20i上的mIoU达到了48.9%(1-shot)和54.6%(5-shot)。与主流方法相比,本文方法的分割性能达到了最先进的水平。 展开更多
关键词 小样本图像语义分割 transformer结构 通道交叉注意力 双交叉注意力 辅助损失
下载PDF
情感分析的跨模态Transformer组合模型
14
作者 王亮 王屹 王军 《计算机工程与应用》 CSCD 北大核心 2024年第13期124-135,共12页
基于Transformer的端到端组合深度学习模型是多模态情感分析的主流模型。针对相关工作中此类模型存在的低资源(low-resource)模态数据的情感特征提取能力不足、不同模态非对齐数据的特征尺度差异导致对齐融合过程中易丢失关键特征信息... 基于Transformer的端到端组合深度学习模型是多模态情感分析的主流模型。针对相关工作中此类模型存在的低资源(low-resource)模态数据的情感特征提取能力不足、不同模态非对齐数据的特征尺度差异导致对齐融合过程中易丢失关键特征信息、基础注意力模型并行处理多模态数据导致多模态长期依赖机制不可靠的问题,提出了一种基于轻量级注意力聚合模块与跨模态Transformer的能使用多模态非对齐数据执行二分类和多分类任务的多模态情感分析模型LAACMT。LAACMT模型提出采用门控循环单元与改进的特征提取算法提取低资源模态信息,提出位置编码配合卷积放缩方法用于对齐多模态语境,提出跨模态多头注意力机制融合已对齐的多模态数据并建立可靠的跨模态长期依赖机制。LAACMT模型在包含文本、语音和视频的三种模态非对齐数据集CMU-MOSI上的实验结果表明该模型的性能评价指标较SOTA有稳定提升。其中Acc7提升了3.96%、Acc2提升了4.08%、F1分数提升了3.35%。消融实验结果数据证明所提模型解决了多模态情感分析相关工作中存在的问题,降低了基于Transformer的多模态情感分析模型的复杂度,提升了模型性能的同时避免了过拟合问题。 展开更多
关键词 多模态情感分析 轻量级注意力聚合模块 跨模态transformer 门控循环单元 跨模态多头注意力机制
下载PDF
基于改进Transformer的三维人体姿态估计
15
作者 陈从平 郁春明 +3 位作者 闫焕章 江高勇 张屹 戴国洪 《传感器与微系统》 CSCD 北大核心 2024年第6期117-121,共5页
本文设计一种用于三维(3D)人体姿态(pose)估计的改进Transformer的多级特征编码网络。采用空间池化(pooling)算子结构来替换注意力(Attention)模块,缩减了模型参数量和运行复杂度,串联该结构得到初始特征表示,然后使用交叉注意力(CA)机... 本文设计一种用于三维(3D)人体姿态(pose)估计的改进Transformer的多级特征编码网络。采用空间池化(pooling)算子结构来替换注意力(Attention)模块,缩减了模型参数量和运行复杂度,串联该结构得到初始特征表示,然后使用交叉注意力(CA)机制进行特征信息交互学习,并应用跨步卷积降低时间维度并合并相近的Pose到Pose序列的单个表示。在Human3.6M数据集上进行验证实验。结果表明:该方法针对3D人体Pose估计,混合使用Pooling结构和Attention机制能达到有效的估计效果,与原始Transformer的方法进行对比,模型参数量降低了30%,位置精度提升了8.6%。 展开更多
关键词 姿态估计 transformer模型 空间池化算子 交叉注意力机制 跨步卷积
下载PDF
基于两阶段注意力层Transformer的弹道目标多站融合识别
16
作者 翟相龙 王旋 +1 位作者 王雁冰 王峰 《现代雷达》 CSCD 北大核心 2024年第7期37-44,共8页
多站弹道目标融合识别旨在利用多个雷达站点信息的互补性提升弹道目标识别性能,而传统多站下弹道目标识别方法未直接考虑多站数据间的关联特性,难以取得准确、稳健的识别性能。针对多站下基于雷达散射截面积(RCS)高速飞行目标的识别问题... 多站弹道目标融合识别旨在利用多个雷达站点信息的互补性提升弹道目标识别性能,而传统多站下弹道目标识别方法未直接考虑多站数据间的关联特性,难以取得准确、稳健的识别性能。针对多站下基于雷达散射截面积(RCS)高速飞行目标的识别问题,提出了一种基于两阶段注意力的弹道目标多站融合识别方法。首先,在现有的Transformer模型上添加维度分段模块将多站雷达数据嵌入于二维向量中,保留站内数据时序及站间关联信息;然后,添加了两阶段注意力层,有效地捕获站内时序信息及跨站维度的依赖关系;最后,基于仿真动态RCS数据模拟多站场景开展了融合识别实验。实验结果表明该方法能够有效提升多站条件下的弹道目标识别性能。 展开更多
关键词 雷达散射截面 多站融合弹道目标识别 transformer模型 两阶段注意力
下载PDF
A Cross-Cultural Study on Transformational Leadership
17
作者 许薇 《海外英语》 2016年第13期136-137,共2页
This paper examines transformational leadership theory and the relationship between transformational leadership and group performance as well. Transformational leadership asks leaders to understand the needs of follow... This paper examines transformational leadership theory and the relationship between transformational leadership and group performance as well. Transformational leadership asks leaders to understand the needs of followers and motivate followers for their overall development, which brings benefits to a group. It is hoped that this paper can contribute to comparative studies on Transformational leadership in the U.S. and China. 展开更多
关键词 LEADERSHIP hoped LEADERSHIP encourage LIKELY BENEFITS validity SITUATIONS originally MOTIVATION
下载PDF
基于多任务学习与层叠Transformer的多模态情感分析模型
18
作者 陈巧红 孙佳锦 +1 位作者 漏杨波 方志坚 《浙江大学学报(工学版)》 EI CAS CSCD 北大核心 2023年第12期2421-2429,共9页
针对单模态特征提取存在的模态特征异质性难以保留问题和跨模态特征融合存在的特征冗余问题,基于跨模态Transformer,提出新的多模态情感分析模型(MTSA).使用长短时记忆(LSTM)与多任务学习框架提取单模态上下文语义信息,通过累加辅助模... 针对单模态特征提取存在的模态特征异质性难以保留问题和跨模态特征融合存在的特征冗余问题,基于跨模态Transformer,提出新的多模态情感分析模型(MTSA).使用长短时记忆(LSTM)与多任务学习框架提取单模态上下文语义信息,通过累加辅助模态任务损失以筛除噪声并保留模态特征异质性.使用多任务门控机制调整跨模态特征融合,通过层叠Transformer结构融合文本、音频与视觉模态特征,提升融合深度,避免融合特征冗余.在2个公开数据集MOSEI和SIMS上的实验结果表明,相较于其他先进模型,MTSA的整体性能表现更好,二分类准确率分别达到83.51%和84.18%. 展开更多
关键词 多模态情感分析 长短时记忆(LSTM) transformER 多任务学习 跨模态特征融合
下载PDF
Detection of Mechanical Deformation in Old Aged Power Transformer Using Cross Correlation Co-Efficient Analysis Method 被引量:2
19
作者 Asif Islam Shahidul Islam Khan Aminul Hoque 《Energy and Power Engineering》 2011年第4期585-591,共7页
Detection of minor faults in power transformer active part is essential because minor faults may develop and lead to major faults and finally irretrievable damages occur. Sweep Frequency Response Analysis (SFRA) is an... Detection of minor faults in power transformer active part is essential because minor faults may develop and lead to major faults and finally irretrievable damages occur. Sweep Frequency Response Analysis (SFRA) is an effective low-voltage, off-line diagnostic tool used for finding out any possible winding displacement or mechanical deterioration inside the Transformer, due to large electromechanical forces occurring from the fault currents or due to Transformer transportation and relocation. In this method, the frequency response of a transformer is taken both at manufacturing industry and concern site. Then both the response is compared to predict the fault taken place in active part. But in old aged transformers, the primary reference response is unavailable. So Cross Correlation Co-Efficient (CCF) measurement technique can be a vital process for fault detection in these transformers. In this paper, theoretical background of SFRA technique has been elaborated and through several case studies, the effectiveness of CCF parameter for fault detection has been represented. 展开更多
关键词 Core Damage RADIAL DEFORMATION AXIAL DEFORMATION SWEEP Frequency Response Analysis cross Correlation Co-efficient Power transformer
下载PDF
结合卷积Transformer的目标跟踪算法 被引量:9
20
作者 王春雷 张建林 +2 位作者 李美惠 徐智勇 魏宇星 《计算机工程》 CAS CSCD 北大核心 2023年第4期281-288,296,共9页
现有基于Transformer的目标跟踪算法未充分利用Transformer的长距离依赖属性,导致算法提取的特征判别性不足,跟踪稳定性较差。为提高孪生网络目标跟踪算法在复杂场景中的跟踪能力,结合卷积与Transformer的优势,提出目标跟踪算法CTTrack... 现有基于Transformer的目标跟踪算法未充分利用Transformer的长距离依赖属性,导致算法提取的特征判别性不足,跟踪稳定性较差。为提高孪生网络目标跟踪算法在复杂场景中的跟踪能力,结合卷积与Transformer的优势,提出目标跟踪算法CTTrack。在特征提取方面,利用卷积丰富的局部信息和Transformer的长距离依赖属性,以卷积和窗口注意力串联的方式和层次化的结构构建一个通用的目标跟踪骨干网络CTFormer。在特征融合方面,利用互注意力机制构建特征互增强与聚合网络以简化网络结构,加快跟踪速度。在搜索区域选择方面,结合目标运动速度估计,设计自适应调整搜索区域的跟踪策略。实验结果表明,CTTrack在GOT-10k数据集上的平均重叠度为70.3%,相比基于Transformer的跟踪算法TransT和TrDiMP均提高3.2个百分点,在UAV123数据集上的曲线下面积为71.1%,相比TransT和TrDiMP分别提高2.0个百分点和3.6个百分点。在TrackingNet、LaSOT、OTB2015、NFS数据集上分别取得82.1%、66.8%、70.1%、66.3%的曲线下面积,并能以43帧/s的速度进行实时跟踪。 展开更多
关键词 孪生网络 transformer目标跟踪 窗口注意力 互注意力 运动估计 搜索区域
下载PDF
上一页 1 2 61 下一页 到第
使用帮助 返回顶部