针对人体姿态估计算法的沉重计算成本和庞大网络规模问题,提出面向人体姿态估计的轻量级高效视觉变换器(lightweight efficient vision transformer for human posture estimation,LEViTPose)。引入深度可分离卷积、通道混洗和多尺度卷...针对人体姿态估计算法的沉重计算成本和庞大网络规模问题,提出面向人体姿态估计的轻量级高效视觉变换器(lightweight efficient vision transformer for human posture estimation,LEViTPose)。引入深度可分离卷积、通道混洗和多尺度卷积核并行技术来设计轻量级预处理模块LStem;提出一种级联组空间线性退化注意力(cascaded group spatial linear reduction attention,CGSLRA),采用特征分组划分多个注意头的方式来提升内存存储效率,采用组内特征降维来降低计算冗余;通过引入逐点卷积和分组反卷积来设计轻量级特征还原模块(lightweight feature recovery module,LFRM)。实验结果表明,所提方法相比基线模型,可以在提升网络性能和推理速度的同时降低网络规模和计算开销。在MPII和COCO验证集上与LiteHRNet-30相比,平均准确率分别提高了2.6和3.4个百分点,推理速度提升了1倍。展开更多
遥感图像的道路分割任务是遥感应用领域的一个研究热点,一直受到广泛的关注。由于遥感图像天然具备背景复杂、目标密集等特性,全局语义信息的构建对于准确提取遥感图像中道路是至关重要的。因此,基于Transformer模型进行优化,提出了基...遥感图像的道路分割任务是遥感应用领域的一个研究热点,一直受到广泛的关注。由于遥感图像天然具备背景复杂、目标密集等特性,全局语义信息的构建对于准确提取遥感图像中道路是至关重要的。因此,基于Transformer模型进行优化,提出了基于空间可分离注意力的跨尺度令牌嵌入Transformer遥感道路提取模型Cross-RoadFormer。具体而言,针对图像中道路尺度不统一的问题,设计了跨尺度编码层,将不同尺度的特征编码作为一个令牌嵌入整体,作为Transformer的输入,解决了Transformer跨尺度交互的问题;此外,提出了一种空间可分离注意力,其中,局部分组注意力获取细粒度、短距离信息,全局采样注意力捕获长距离、全局上下文信息,在保证道路提取准确度的前提下,降低了模型的计算量。在Massachusetts数据集和DeepGlobe数据集上的实验表明,提出的Cross-RoadFormer都实现了更高的IoU(intersection over union),分别为68.40%和58.04%,展现了该方法的优越性。展开更多
现有的大多数研究者使用循环神经网络与注意力机制相结合的方法进行方面级情感分类任务。然而,循环神经网络不能并行计算,并且模型在训练过程中会出现截断的反向传播、梯度消失和梯度爆炸等问题,传统的注意力机制可能会给句子中重要情...现有的大多数研究者使用循环神经网络与注意力机制相结合的方法进行方面级情感分类任务。然而,循环神经网络不能并行计算,并且模型在训练过程中会出现截断的反向传播、梯度消失和梯度爆炸等问题,传统的注意力机制可能会给句子中重要情感词分配较低的注意力权重。针对上述问题,该文提出了一种融合Transformer和交互注意力网络的方面级情感分类模型。首先利用BERT(bidirectional encoder representation from Transformers)预训练模型来构造词嵌入向量,然后使用Transformer编码器对输入的句子进行并行编码,接着使用上下文动态掩码和上下文动态权重机制来关注与特定方面词有重要语义关系的局部上下文信息。最后在5个英文数据集和4个中文评论数据集上的实验结果表明,该文所提模型在准确率和F1上均表现最优。展开更多
文摘针对人体姿态估计算法的沉重计算成本和庞大网络规模问题,提出面向人体姿态估计的轻量级高效视觉变换器(lightweight efficient vision transformer for human posture estimation,LEViTPose)。引入深度可分离卷积、通道混洗和多尺度卷积核并行技术来设计轻量级预处理模块LStem;提出一种级联组空间线性退化注意力(cascaded group spatial linear reduction attention,CGSLRA),采用特征分组划分多个注意头的方式来提升内存存储效率,采用组内特征降维来降低计算冗余;通过引入逐点卷积和分组反卷积来设计轻量级特征还原模块(lightweight feature recovery module,LFRM)。实验结果表明,所提方法相比基线模型,可以在提升网络性能和推理速度的同时降低网络规模和计算开销。在MPII和COCO验证集上与LiteHRNet-30相比,平均准确率分别提高了2.6和3.4个百分点,推理速度提升了1倍。
文摘遥感图像的道路分割任务是遥感应用领域的一个研究热点,一直受到广泛的关注。由于遥感图像天然具备背景复杂、目标密集等特性,全局语义信息的构建对于准确提取遥感图像中道路是至关重要的。因此,基于Transformer模型进行优化,提出了基于空间可分离注意力的跨尺度令牌嵌入Transformer遥感道路提取模型Cross-RoadFormer。具体而言,针对图像中道路尺度不统一的问题,设计了跨尺度编码层,将不同尺度的特征编码作为一个令牌嵌入整体,作为Transformer的输入,解决了Transformer跨尺度交互的问题;此外,提出了一种空间可分离注意力,其中,局部分组注意力获取细粒度、短距离信息,全局采样注意力捕获长距离、全局上下文信息,在保证道路提取准确度的前提下,降低了模型的计算量。在Massachusetts数据集和DeepGlobe数据集上的实验表明,提出的Cross-RoadFormer都实现了更高的IoU(intersection over union),分别为68.40%和58.04%,展现了该方法的优越性。
文摘现有的大多数研究者使用循环神经网络与注意力机制相结合的方法进行方面级情感分类任务。然而,循环神经网络不能并行计算,并且模型在训练过程中会出现截断的反向传播、梯度消失和梯度爆炸等问题,传统的注意力机制可能会给句子中重要情感词分配较低的注意力权重。针对上述问题,该文提出了一种融合Transformer和交互注意力网络的方面级情感分类模型。首先利用BERT(bidirectional encoder representation from Transformers)预训练模型来构造词嵌入向量,然后使用Transformer编码器对输入的句子进行并行编码,接着使用上下文动态掩码和上下文动态权重机制来关注与特定方面词有重要语义关系的局部上下文信息。最后在5个英文数据集和4个中文评论数据集上的实验结果表明,该文所提模型在准确率和F1上均表现最优。