期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
多尺度特征与注意力检测头的轻量化FOD检测
1
作者 费春国 文章 庄子波 《自动化仪表》 CAS 2024年第10期110-116,共7页
针对现阶段机场跑道异物碎片(FOD)目标检测算法存在的缺陷,进行了降低参数量和提高精度的改进。以你只看一次(YOLO)v5s目标检测算法为基础,提出多尺度特征与注意力检测头的轻量化FOD检测算法。首先,提出一种全新的轻量化网络结构。该结... 针对现阶段机场跑道异物碎片(FOD)目标检测算法存在的缺陷,进行了降低参数量和提高精度的改进。以你只看一次(YOLO)v5s目标检测算法为基础,提出多尺度特征与注意力检测头的轻量化FOD检测算法。首先,提出一种全新的轻量化网络结构。该结构使用深度可分离卷积和逐点卷积,并设计大卷积核架构,使模型感受野提升,从而解决大量特征图冗余问题。接着,融合多尺度特征图。通过移除大目标检测层、增加小目标检测层,在提升小目标检测能力的同时降低网络参数量。最后,提出一种动态头部框架来统一目标检测头和注意力,通过连贯地结合多个自注意力机制,进一步提升了网络检测精度。试验结果表明:所提出的使用鬼影卷积大卷积核架构下的多尺度特征注意力检测头的YOLOv5s(GRD-YOLOv5s)网络的参数量减少为3.39 MB,仅为原网络的48%;平均检测精度从98.40%提升至99.45%;检测速度为53.42帧/秒。该网络的提出为实现对小目标的准确检测提供了新思路。 展开更多
关键词 机场跑道 异物碎片 图像处理 目标检测 轻量化 你只看一次v5s 多尺度特征融合 注意力检测
下载PDF
一种融合标签信息的多标签文本分类方法
2
作者 任彦凝 陈俊霖 刘群 《小型微型计算机系统》 CSCD 北大核心 2024年第3期584-590,共7页
多标签文本分类旨在从若干标签中选取最相关的标签子集来标记一个样本点.传统的研究倾向于探讨标签间关系而忽略标签语义,造成信息提取不完整,因此如何利用标签元数据有效提取样本中的关键信息是需要解决的一个重要问题.为解决上述问题... 多标签文本分类旨在从若干标签中选取最相关的标签子集来标记一个样本点.传统的研究倾向于探讨标签间关系而忽略标签语义,造成信息提取不完整,因此如何利用标签元数据有效提取样本中的关键信息是需要解决的一个重要问题.为解决上述问题,本文首先提出从现有数据集中生成标签语义元数据的方法,利用注意力模型对样本中混杂的语义进行筛选和清洗,生成标签的语义信息,解决了标签语义获取困难的问题.其次提出combined-attention模型用以提取样本中的关键信息,此模型将标签语义和标签关系结合起来共同提取样本中的信息,并且其内部设置了自适应融合单元,将以上两种关键信息根据其在分类结果中的关键程度自适应分配权重,进一步提升了模型的分类能力.3个英文数据集上的实验结果表明本模型优于最先进的基线方法,在分类精度上最高提升了5.68%,在真实的中文法律数据集上也实现了优异的分类效果. 展开更多
关键词 多标签文本分类 注意力 注意力头 语义生成
下载PDF
Multi-head attention-based long short-term memory model for speech emotion recognition 被引量:1
3
作者 Zhao Yan Zhao Li +3 位作者 Lu Cheng Li Sunan Tang Chuangao Lian Hailun 《Journal of Southeast University(English Edition)》 EI CAS 2022年第2期103-109,共7页
To fully make use of information from different representation subspaces,a multi-head attention-based long short-term memory(LSTM)model is proposed in this study for speech emotion recognition(SER).The proposed model ... To fully make use of information from different representation subspaces,a multi-head attention-based long short-term memory(LSTM)model is proposed in this study for speech emotion recognition(SER).The proposed model uses frame-level features and takes the temporal information of emotion speech as the input of the LSTM layer.Here,a multi-head time-dimension attention(MHTA)layer was employed to linearly project the output of the LSTM layer into different subspaces for the reduced-dimension context vectors.To provide relative vital information from other dimensions,the output of MHTA,the output of feature-dimension attention,and the last time-step output of LSTM were utilized to form multiple context vectors as the input of the fully connected layer.To improve the performance of multiple vectors,feature-dimension attention was employed for the all-time output of the first LSTM layer.The proposed model was evaluated on the eNTERFACE and GEMEP corpora,respectively.The results indicate that the proposed model outperforms LSTM by 14.6%and 10.5%for eNTERFACE and GEMEP,respectively,proving the effectiveness of the proposed model in SER tasks. 展开更多
关键词 speech emotion recognition long short-term memory(LSTM) multi-head attention mechanism frame-level features self-attention
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部