期刊文献+
共找到8,022篇文章
< 1 2 250 >
每页显示 20 50 100
融合自适应图卷积与Transformer序列模型的中文手语翻译方法
1
作者 应捷 徐文成 +2 位作者 杨海马 刘瑾 郑乐芊 《计算机应用研究》 CSCD 北大核心 2023年第5期1589-1594,1600,共7页
针对手语翻译方法所存在的动作特征提取以及时序翻译方面存在的问题,提出一种融合自适应图卷积AGCN与Transformer时序模型的AGCN-T手语翻译网络。自适应图卷积网络用于学习手语动作中骨骼节点的交互空间依赖信息;Transformer时序模块捕... 针对手语翻译方法所存在的动作特征提取以及时序翻译方面存在的问题,提出一种融合自适应图卷积AGCN与Transformer时序模型的AGCN-T手语翻译网络。自适应图卷积网络用于学习手语动作中骨骼节点的交互空间依赖信息;Transformer时序模块捕捉手语动作序列的时间关系特征信息并将其翻译成可理解的手语内容。此外,在预处理部分,提出了一种移动窗口的关键帧提取算法,并用MediaPipe姿态估计算法对关键帧图像序列进行骨架提取。实验表明,该方法在大型中文连续手语数据集CCSL的词错率达到了3.75%,精度为97.87%,优于其他先进的手语翻译方法。 展开更多
关键词 手语翻译 自适应图卷积 transformer时序模型 关键帧提取 姿态估计
下载PDF
基于RoBERTa和图增强Transformer的序列推荐方法 被引量:1
2
作者 王明虎 石智奎 +1 位作者 苏佳 张新生 《计算机工程》 CAS CSCD 北大核心 2024年第4期121-131,共11页
自推荐系统出现以来,有限的数据信息就一直制约着推荐算法的进一步发展。为降低数据稀疏性的影响,增强非评分数据的利用率,基于神经网络的文本推荐模型相继被提出,但主流的卷积或循环神经网络在文本语义理解和长距离关系捕捉方面存在明... 自推荐系统出现以来,有限的数据信息就一直制约着推荐算法的进一步发展。为降低数据稀疏性的影响,增强非评分数据的利用率,基于神经网络的文本推荐模型相继被提出,但主流的卷积或循环神经网络在文本语义理解和长距离关系捕捉方面存在明显劣势。为了更好地挖掘用户与商品之间的深层潜在特征,进一步提高推荐质量,提出一种基于Ro BERTa和图增强Transformer的序列推荐(RGT)模型。引入评论文本数据,首先利用预训练的Ro BERTa模型捕获评论文本中的字词语义特征,初步建模用户的个性化兴趣,然后根据用户与商品的历史交互信息,构建具有时序特性的商品关联图注意力机制网络模型,通过图增强Transformer的方法将图模型学习到的各个商品的特征表示以序列的形式输入Transformer编码层,最后将得到的输出向量与之前捕获的语义表征以及计算得到的商品关联图的全图表征输入全连接层,以捕获用户全局的兴趣偏好,实现用户对商品的预测评分。在3组真实亚马逊公开数据集上的实验结果表明,与Deep FM、Conv MF等经典文本推荐模型相比,RGT模型在均方根误差(RMSE)和平均绝对误差(MAE)2种指标上有显著提升,相较于最优对比模型最高分别提升4.7%和5.3%。 展开更多
关键词 推荐算法 评论文本 RoBERTa模型 图注意力机制 transformer机制
下载PDF
规则压缩模型和灵活架构的Transformer加速器设计
3
作者 姜小波 邓晗珂 +1 位作者 莫志杰 黎红源 《电子与信息学报》 EI CAS CSCD 北大核心 2024年第3期1079-1088,共10页
基于注意力机制的Transformer模型具有优越的性能,设计专用的Transformer加速器能大幅提高推理性能以及降低推理功耗。Transformer模型复杂性包括数量上和结构上的复杂性,其中结构上的复杂性导致不规则模型和规则硬件之间的失配,降低了... 基于注意力机制的Transformer模型具有优越的性能,设计专用的Transformer加速器能大幅提高推理性能以及降低推理功耗。Transformer模型复杂性包括数量上和结构上的复杂性,其中结构上的复杂性导致不规则模型和规则硬件之间的失配,降低了模型映射到硬件的效率。目前的加速器研究主要聚焦在解决模型数量上的复杂性,但对如何解决模型结构上的复杂性研究得不多。该文首先提出规则压缩模型,降低模型的结构复杂度,提高模型和硬件的匹配度,提高模型映射到硬件的效率。接着提出一种硬件友好的模型压缩方法,采用规则的偏移对角权重剪枝方案和简化硬件量化推理逻辑。此外,提出一个高效灵活的硬件架构,包括一种以块为单元的权重固定脉动运算阵列,同时包括一种准分布的存储架构。该架构可以高效实现算法到运算阵列的映射,同时实现高效的数据存储效率和降低数据移动。实验结果表明,该文工作在性能损失极小的情况下实现93.75%的压缩率,在FPGA上实现的加速器可以高效处理压缩后的Transformer模型,相比于中央处理器(CPU)和图形处理器(GPU)能效分别提高了12.45倍和4.17倍。 展开更多
关键词 自然语音处理 transformer 模型压缩 硬件加速器 机器翻译
下载PDF
基于Transformer和GAN的多元时间序列异常检测方法
4
作者 曾凡锋 吕繁钰 《北方工业大学学报》 2024年第1期100-109,共10页
在时序数据分析中,异常检测是最为成熟的应用之一。它在量化交易、网络安全检测、自动驾驶和大型工业设备日常维护等现实领域广泛应用。随着业务组合的复杂性和时序数据量的增加,传统的人工和简单算法方法很难判断异常点。针对上述问题... 在时序数据分析中,异常检测是最为成熟的应用之一。它在量化交易、网络安全检测、自动驾驶和大型工业设备日常维护等现实领域广泛应用。随着业务组合的复杂性和时序数据量的增加,传统的人工和简单算法方法很难判断异常点。针对上述问题,对现有的检测方法进行了改进,提出了一种基于Transformer和生成式对抗网络(Generative Adversarial Networks,GAN)的时间序列异常检测模型,利用改进后的Transformer对时间序列的空间特征进行提取,并使用基于异常分数的异常检测算法和对抗训练以获得稳定性和准确性。模型采用自监督训练的方式,避免了需要手动标注异常数据的麻烦,同时减少了数据集对于监督模型训练的依赖。通过实验验证,本文提出的基于Transformer的时间序列异常检测模型在准确率上与先进的基于Transformer的模型相当,并且表现优于多元时间序列的大型数据集上的监督训练和传统异常检测方法。因此,该模型在实际应用中具有较好的潜力。 展开更多
关键词 深度学习 异常检测 transformer 生成式对抗网络(GAN) 多元时间序列
下载PDF
基于随机Transformer的多维时间序列异常检测模型 被引量:3
5
作者 霍纬纲 梁锐 李永华 《通信学报》 EI CSCD 北大核心 2023年第2期94-103,共10页
针对已有基于变分自编码器(VAE)的多维时间序列(MTS)异常检测模型无法在隐空间中传播随机变量间的长时依赖性问题,提出了一种融合Transformer编码器和VAE的随机Transformer MTS异常检测模型(ST-MTS-AD)。在ST-MTS-AD的推断网络中,Transf... 针对已有基于变分自编码器(VAE)的多维时间序列(MTS)异常检测模型无法在隐空间中传播随机变量间的长时依赖性问题,提出了一种融合Transformer编码器和VAE的随机Transformer MTS异常检测模型(ST-MTS-AD)。在ST-MTS-AD的推断网络中,Transformer编码器产生的当前时刻MTS长时依赖特征和上一时刻随机变量的采样值被输入多层感知器,由此生成当前时刻随机变量的近似后验分布,实现随机变量间的时序依赖。采用门控转换函数(GTF)生成随机变量的先验分布,ST-MTS-AD的生成网络由多层感知器重构MTS各时刻取值分布,该多层感知器的输入为推断网络生成的MTS的长时依赖特征和随机变量近似后验采样值。ST-MTS-AD基于变分推断技术学习正常MTS样本集分布,由重构概率对数似然确定MTS异常片段。4个公开数据集上的实验表明,ST-MTS-AD模型比典型相关基线模型的F1分数有明显提升。 展开更多
关键词 随机transformer 变分自编码器 多维时间序列 异常检测
下载PDF
基于多尺度时间序列块自编码Transformer神经网络模型的风电超短期功率预测 被引量:5
6
作者 骆钊 吴谕侯 +3 位作者 朱家祥 赵伟杰 王钢 沈鑫 《电网技术》 EI CSCD 北大核心 2023年第9期3527-3536,共10页
风电超短期功率预测过程中对时间依赖性的有效捕捉与建模,将直接影响风电功率时间序列预测模型的稳定性和泛化性。为此,提出一种新型时序Transformer风电功率预测模型。模型架构在逻辑上分为时间块自编码、隐空间Transformer自注意力时... 风电超短期功率预测过程中对时间依赖性的有效捕捉与建模,将直接影响风电功率时间序列预测模型的稳定性和泛化性。为此,提出一种新型时序Transformer风电功率预测模型。模型架构在逻辑上分为时间块自编码、隐空间Transformer自注意力时序自回归、随机方差缩减梯度(stochastic variance reduce gradient,SVRG)优化3个部分。首先,依稀疏约束及低秩近似规则,风电功率时空数据被半监督映射至隐空间;其次,隐空间编码经由多头自注意力网络完成时序自回归预测;最后,模型采用方差缩减SVRG优化算法降低噪声,达到更高预测效能。实验结果表明,所提新型Transformer架构能稳定有效进行超短期风电功率预测,预测结果在准确性、泛化性方面相较于传统机器学习模型都有明显提升。 展开更多
关键词 风电功率预测 时间依赖性 时间序列块自编码 时间序列transformer 自注意力网络
下载PDF
基于TF-IDF和多头注意力Transformer模型的文本情感分析 被引量:2
7
作者 高佳希 黄海燕 《华东理工大学学报(自然科学版)》 CAS CSCD 北大核心 2024年第1期129-136,共8页
文本情感分析旨在对带有情感色彩的主观性文本进行分析、处理、归纳和推理,是自然语言处理中一项重要任务。针对现有的计算方法不能充分处理复杂度和混淆度较高的文本数据集的问题,提出了一种基于TF-IDF(Term Frequency-Inverse Documen... 文本情感分析旨在对带有情感色彩的主观性文本进行分析、处理、归纳和推理,是自然语言处理中一项重要任务。针对现有的计算方法不能充分处理复杂度和混淆度较高的文本数据集的问题,提出了一种基于TF-IDF(Term Frequency-Inverse Document Frequency)和多头注意力Transformer模型的文本情感分析模型。在文本预处理阶段,利用TF-IDF算法对影响文本情感倾向较大的词语进行初步筛选,舍去常见的停用词及其他文本所属邻域对文本情感倾向影响较小的专有名词。然后,利用多头注意力Transformer模型编码器进行特征提取,抓取文本内部重要的语义信息,提高模型对语义的分析和泛化能力。该模型在多领域、多类型评论语料库数据集上取得了98.17%的准确率。 展开更多
关键词 文本情感分析 自然语言处理 多头注意力机制 TF-IDF算法 transformer模型
下载PDF
基于Transformer的矿井内因火灾时间序列预测方法
8
作者 王树斌 王旭 +1 位作者 闫世平 王珂 《工矿自动化》 CSCD 北大核心 2024年第3期65-70,91,共7页
传统的基于机器学习的矿井内因火灾预测方法尽管具备一定的预测能力,然而在处理复杂的多变量数据时不能有效捕捉数据间的全局依赖关系,导致预测精度较低。针对上述问题,提出了一种基于Transformer的矿井内因火灾时间序列预测方法。首先... 传统的基于机器学习的矿井内因火灾预测方法尽管具备一定的预测能力,然而在处理复杂的多变量数据时不能有效捕捉数据间的全局依赖关系,导致预测精度较低。针对上述问题,提出了一种基于Transformer的矿井内因火灾时间序列预测方法。首先,采用Hampel滤波器和拉格朗日插值法对数据进行异常值检测和缺失值填补。然后,利用Transformer的自注意力机制对时间序列数据进行特征提取及趋势预测。最后,通过调节滑动窗口的大小与步长,在不同的时间步长和预测长度下对模型进行不同时间维度的训练。结合气体分析法将矿井火灾产生的标志性气体(CO,O_(2),N_(2),CO_(2),C_(2)H_(2),C_(2)H4,C_(2)H_(6))作为模型输入变量,其中CO作为模型输出的目标变量,O_(2),N_(2),CO_(2),C_(2)H_(2),C_(2)H4,C_(2)H_(6)作为模型输入的协变量。选取陕煤集团柠条塔煤矿S1206回风隅角火灾预警的束管数据进行实验验证,结果表明:①对CO进行单变量预测和多变量预测,多变量预测相比单变量预测有着更高的预测精度,说明多变量预测能通过捕捉序列间的相关性提高模型的预测精度。②当时间步长固定时,基于Transformer的矿井内因火灾预测模型的预测精度随着预测长度的增加而下降。当预测长度固定时,模型的预测精度随时间步长增加而提高。③Transformer算法的预测精度较长短时记忆(LSTM)算法和循环神经网络(RNN)算法分别提高了7.1%~12.6%和20.9%~24.9%。 展开更多
关键词 矿井内因火灾 transformer 时间序列 标志性气体 自注意力机制
下载PDF
基于局部Transformer的泰语分词和词性标注联合模型
9
作者 朱叶芬 线岩团 +1 位作者 余正涛 相艳 《智能系统学报》 CSCD 北大核心 2024年第2期401-410,共10页
泰语分词和词性标注任务二者之间存在高关联性,已有研究表明将分词和词性标注任务进行联合学习可以有效提升模型性能,为此,提出了一种针对泰语拼写和构词特点的分词和词性标注联合模型。针对泰语中字符构成音节,音节组成词语的特点,采... 泰语分词和词性标注任务二者之间存在高关联性,已有研究表明将分词和词性标注任务进行联合学习可以有效提升模型性能,为此,提出了一种针对泰语拼写和构词特点的分词和词性标注联合模型。针对泰语中字符构成音节,音节组成词语的特点,采用局部Transformer网络从音节序列中学习分词特征;考虑到词根和词缀等音节与词性的关联,将用于分词的音节特征融入词语序列特征,缓解未知词的词性标注特征缺失问题。在此基础上,模型采用线性分类层预测分词标签,采用线性条件随机场建模词性序列的依赖关系。在泰语数据集LST20上的试验结果表明,模型分词F1、词性标注微平均F1和宏平均F1分别达到96.33%、97.06%和85.98%,相较基线模型分别提升了0.33%、0.44%和0.12%。 展开更多
关键词 泰语分词 词性标注 联合学习 局部transformer 构词特点 音节特征 线性条件随机场 联合模型
下载PDF
改良Transformer模型应用于乳腺结节超声报告自主生成的可行性研究
10
作者 王怡 周鑫仪 +2 位作者 徐黎明 邓丹 冉海涛 《临床超声医学杂志》 CSCD 2024年第2期114-119,共6页
目的将改良Transformer模型应用于乳腺结节超声报告自主生成,并对其可行性进行初步探讨。方法收集832例乳腺结节患者(共1284个结节)的超声图像构建BND数据集,引入一种改良Transformer模型对BND数据集进行智能分析,生成相应文本报告,并与... 目的将改良Transformer模型应用于乳腺结节超声报告自主生成,并对其可行性进行初步探讨。方法收集832例乳腺结节患者(共1284个结节)的超声图像构建BND数据集,引入一种改良Transformer模型对BND数据集进行智能分析,生成相应文本报告,并与Ensemble Model、SSD、R-FCN模型进行比较;同时引入LGK数据集,将改良Transformer模型与TieNet、Kerp、VTI、RNCM模型进行比较。采用BLEU评分评估各模型的性能。结果在BND数据集中,改良模型的BLEU-1、BLEU-2、BLEU-3及BLEU-4评分分别为0.547、0.474、0.352、0.282,均高于Ensemble Model、SSD、R-FCN模型。在LGK数据集中,改良Transformer模型的BLEU-1、BLEU-2、BLEU-3及BLEU-4评分分别为0.579、0.391、0.288、0.152。结论改良Transformer模型能够快速识别乳腺结节并自主生成标准报告,与Ensemble Model、SSD、R-FCN模型相比,获得了良好的BLEU评分,同时该模型在LGK数据集中BLEU评分也较高,表明改良Transformer模型具有较高的文本泛化性能。 展开更多
关键词 深度学习 transformer模型 乳腺结节 报告生成
下载PDF
基于双模态Transformer模型的话务量预测
11
作者 裴明丽 刘晓川 +1 位作者 黄如兵 张友海 《安徽职业技术学院学报》 2024年第1期19-25,70,共8页
为降低客户服务中心电话的等待率,提升服务质量。针对现有算法不能实现中长期话务量预测的问题,提出了一种基于双模态Transformer模型的话务量预测方法。首先采集并预处理某运营商真实的话务量数据,通过双模态特征融合构造出有益特征,... 为降低客户服务中心电话的等待率,提升服务质量。针对现有算法不能实现中长期话务量预测的问题,提出了一种基于双模态Transformer模型的话务量预测方法。首先采集并预处理某运营商真实的话务量数据,通过双模态特征融合构造出有益特征,最后采用多种模型进行话务量预测以及多种衡量指标对预测结果进行分析。结果表明:与其他算法比较,Transformer模型性能较好,对运营商资源的合理配置具有较高的指导意义,同时更易获得客户较高的满意度和忠诚度。 展开更多
关键词 话务量预测 transformer模型 服务质量 双模态
下载PDF
融合卷积神经网络和Transformer的人脸欺骗检测模型
12
作者 黄灵 何希平 +2 位作者 贺丹 杨楚天 旷奇弦 《信息安全研究》 CSCD 北大核心 2024年第1期25-33,共9页
在人脸反欺骗领域,大多数现有检测模型都是基于卷积神经网络(convolutional neural network,CNN),该类方法虽能以较少的参数学习人脸识别,但其感受野是局部的;而基于Transformer的方法虽然能够全局感知,但参数量和计算量极大,无法在移... 在人脸反欺骗领域,大多数现有检测模型都是基于卷积神经网络(convolutional neural network,CNN),该类方法虽能以较少的参数学习人脸识别,但其感受野是局部的;而基于Transformer的方法虽然能够全局感知,但参数量和计算量极大,无法在移动或边缘设备广泛部署.针对以上问题,提出一种融合CNN和Transformer的人脸欺骗检测模型,旨在保持人脸全局和局部特征提取能力的前提下,实现参数量和准确度的平衡.首先,裁剪选取局部人脸图像作为输入,有效避免过拟合现象;其次,设计基于坐标注意力的特征提取模块;最后,设计融合CNN和Transformer模块,通过局部全局局部的信息交换实现图像局部特征和全局特征的提取.实验结果表明,该模型在CASIA-SURF(Depth模态)数据集上获得了99.31%的准确率以及0.54%的平均错误率;甚至在CASIA-FASD和Replay-Attack这2个数据集上实现了零错误率,且模型参数量仅0.59MB,远小于Transformer系列模型. 展开更多
关键词 人脸欺骗检测 CNN transformer 模型融合 注意力机制
下载PDF
基于Transformer的时间序列插补技术研究
13
作者 谷小兵 牛少彰 +2 位作者 王茂森 安洪旭 史成洁 《图像与信号处理》 2024年第2期151-162,共12页
本文旨在解决多元时间序列数据中的缺失值插补问题,提升时间序列数据插补的效果。时间序列数据是反映随时间变化的随机变量的结果,在物联网应用中得到广泛应用。然而,数据缺失问题是时间序列处理中的一个重要挑战,因为大多数下游算法需... 本文旨在解决多元时间序列数据中的缺失值插补问题,提升时间序列数据插补的效果。时间序列数据是反映随时间变化的随机变量的结果,在物联网应用中得到广泛应用。然而,数据缺失问题是时间序列处理中的一个重要挑战,因为大多数下游算法需要完整的数据进行训练。本文通过总结以往时间序列建模过程中采用的插补方法,改进了一种基于Transformer模型的插补模型,并在多个数据集中验证了本文中插补模型的效果。通过本文的研究,可提高时间序列预测的准确性和实用性,对于物联网应用和其他领域中的时间序列分析具有一定的实用价值。 展开更多
关键词 时间序列 多元时间序列 缺失值插补 transformer 模型 时间序列建模 数据完整性 自注意力 神经网络
下载PDF
基于Transformer模型的文本自动摘要生成
14
作者 刘志敏 张琨 朱浩华 《计算机与数字工程》 2024年第2期482-486,527,共6页
论文探讨文本摘要的自动生成技术,其任务是产生能够表达文本主要含义的简明摘要。传统的Seq2Seq结构模型对长期特征和全局特征的捕获和存储能力有限,导致所生成的摘要中缺乏重要信息。因此,论文基于Transformer模型提出了一种新的生成... 论文探讨文本摘要的自动生成技术,其任务是产生能够表达文本主要含义的简明摘要。传统的Seq2Seq结构模型对长期特征和全局特征的捕获和存储能力有限,导致所生成的摘要中缺乏重要信息。因此,论文基于Transformer模型提出了一种新的生成式文本摘要模型RC-Transformer-PGN(RCTP)。该模型首先使用了一个附加的基于双向GRU的编码器来扩展Transformer模型,以捕获顺序上下文表示并提高局部信息的捕捉能力,其次引入指针生成网络以及覆盖机制缓解未登录词和重复词问题。在CNN/Daily Mail数据集上的实验结果表明论文模型与基线模型相比更具竞争力。 展开更多
关键词 生成式文本摘要 transformer模型 指针生成网络 覆盖机制
下载PDF
面向Transformer模型的轻量化方法研究
15
作者 徐慧超 徐海文 刘丽娜 《电脑知识与技术》 2024年第4期25-28,共4页
随着Transformer模型的改进与发展,模型的参数数量显著增加,使得Transformer模型及其衍生模型需要消耗大量的计算资源和存储资源。文章提出一种基于知识蒸馏的新的Transformer模型轻量化方法:使用预训练好的BERT模型(Bidirectional Enco... 随着Transformer模型的改进与发展,模型的参数数量显著增加,使得Transformer模型及其衍生模型需要消耗大量的计算资源和存储资源。文章提出一种基于知识蒸馏的新的Transformer模型轻量化方法:使用预训练好的BERT模型(Bidirectional Encoder Representation from Transformers)作为教师模型,设计学生模型卷积神经网络(Convolutional Neural Network,CNN),加入注意力机制的循环神经网络(Recurrent Neural Network,RNN)和全连接神经网络(Full Connect Neu-ral Network,DNN),并采用logits和matching logits两种蒸馏方法,实现模型的轻量化。实验结果表明,当将BERT模型蒸馏给CNN时,参数数量减少93.46%,运行速度提升30余倍,在小规模数据集上准确率仅下降0.70%;当将BERT蒸馏给加入注意力机制的RNN时,参数数量减少了93.38%,速度提升100余倍,模型准确率轻微下降;当将DNN作为学生模型时,参数数量减少了93.77%,速度提升了200余倍,在大规模数据集上,准确率仅下降0.02%。 展开更多
关键词 深度学习 transformer模型 注意力机制 轻量化方法 知识蒸馏
下载PDF
基于姿态估计和Transformer模型的遮挡行人重识别
16
作者 陈禹 刘慧 +1 位作者 梁东升 张雷 《科学技术与工程》 北大核心 2024年第12期5051-5058,共8页
行人重识别(re-identification,ReID)是利用人工智能解决边防检查、人员追踪等公共安全应用问题的技术,具有从跨设备采集的图像中识别某一特定行人的能力。但是在人员追踪等问题中,往往会出现行人刻意遮挡、复杂场景环境遮挡等因素,大... 行人重识别(re-identification,ReID)是利用人工智能解决边防检查、人员追踪等公共安全应用问题的技术,具有从跨设备采集的图像中识别某一特定行人的能力。但是在人员追踪等问题中,往往会出现行人刻意遮挡、复杂场景环境遮挡等因素,大大提高了行人重识别的难度。针对行人重识别遮挡问题,基于ResNet50网络,结合姿态估计和Transformer模型,提出了一种改进的行人重识别网络PT-Net,以提高遮挡条件下的行人重识别能力。该方法首先利用现有的姿态估计方法对输入图像进行关键点检测,并将关键点信息与行人特征图像结合起来生成一个基于姿态的行人特征表示;然后利用Transformer模型对基于姿态的行人特征表示编码,用来实现特征对齐和特征融合。基于国际公开的数据集Occluded-Duke开展实验验证。结果表明:PT-Net方法相对于基线模型,其均值平均精度(mAP)和相似度排序Rank-1指标分别提高了1.3、1.5个百分点,验证了该方法的有效性和优越性。 展开更多
关键词 行人重识别(ReID) 姿态估计 transformer模型 遮挡 关键点检测
下载PDF
基于Transformer的空调能耗预测模型构建与参数优化
17
作者 刘兴成 《建筑节能(中英文)》 CAS 2024年第3期82-86,共5页
针对空调系统能耗预测建模过程中的数据质量、模型输入参数筛选等问题,研究基于Transformer神经网络的空调系统能耗预测模型构建和参数优化方法,结果表明:可以通过广义极端学生化偏差方法对数据中的离群值进行检测修正,从而提升数据质量... 针对空调系统能耗预测建模过程中的数据质量、模型输入参数筛选等问题,研究基于Transformer神经网络的空调系统能耗预测模型构建和参数优化方法,结果表明:可以通过广义极端学生化偏差方法对数据中的离群值进行检测修正,从而提升数据质量;通过余弦相似度对输入参数进行两两相关性检验来消除各参数间的多重共线性,实现对输入参数的初步筛选;采用随机森林算法计算初选参数对空调能耗预测结果的影响来判断冗余参数,进而完成对输入特征参数的最终筛选;建立的空调能耗预测模型对数据测试集的预测结果均方根误差RMSE为38.831 kW,相关系数R^(2)为0.952,表现出了良好的预测性能。 展开更多
关键词 空调系统能耗预测 transformer神经网络 数据质量 模型参数优化
下载PDF
一种基于Transformer模型的特征增强算法及其应用研究
18
作者 李俊华 段志奎 于昕梅 《佛山科学技术学院学报(自然科学版)》 CAS 2024年第3期27-34,共8页
Transformer模型在自动语音识别(ASR)任务中展现出优秀的性能,但在特征提取方面存在两个问题:一是模型集中于全局特征交互信息提取,忽略了其他有用的特征信息,如局部特征交互信息;二是模型对低层特征交互信息的利用不够充分。为了解决... Transformer模型在自动语音识别(ASR)任务中展现出优秀的性能,但在特征提取方面存在两个问题:一是模型集中于全局特征交互信息提取,忽略了其他有用的特征信息,如局部特征交互信息;二是模型对低层特征交互信息的利用不够充分。为了解决这两个问题,提出了卷积线性映射(CMLP)模块以强化局部特征交互,并设计低层特征融合(LF)模块来融合高低层特征。通过整合这些模块,构建了CLformer模型。在两个中文普通话数据集(Aishell-1和HKUST)上进行实验,结果表明,CLformer显著提升了模型性能,在Aishell-1上较基线提高0.3%,在HKUST上提高0.5%。 展开更多
关键词 transformer模型 自动语音识别 特征增强 局部特征 特征融合
下载PDF
基于Transformer模型的轨道交通机器翻译系统设计
19
作者 李子林 刘庆猛 李雪山 《铁路计算机应用》 2024年第4期54-58,共5页
针对商用机器翻译引擎安全性无法保证、专业化领域翻译精准度低、翻译服务方式单一等问题,通过神经网络模型、知识蒸馏方法、专业语料库构建等技术,设计基于Transformer模型的轨道交通机器翻译系统——“铁译通”,实现文本翻译、文档翻... 针对商用机器翻译引擎安全性无法保证、专业化领域翻译精准度低、翻译服务方式单一等问题,通过神经网络模型、知识蒸馏方法、专业语料库构建等技术,设计基于Transformer模型的轨道交通机器翻译系统——“铁译通”,实现文本翻译、文档翻译、Office插件翻译、浏览器插件翻译等多元化功能。应用表明,该系统可为行业用户提供专业化、多元化、定制化、安全性强的机器翻译服务。 展开更多
关键词 transformer模型 机器翻译 自然语言处理 轨道交通 翻译引擎
下载PDF
基于能量损失的Transformer神经网络信息流序列推荐算法
20
作者 黄驰涵 《计算机与网络》 2024年第2期171-176,共6页
随着信息流和互联网的迅猛发展,网络越发成为人们获取信息的主要来源。有效提升用户浏览信息的效率,准确推送用户关注的个性化内容,成为当前的热门需求。利用Python爬取了平台一周时间内用户在信息流产品上的曝光历史,对数据进行处理和... 随着信息流和互联网的迅猛发展,网络越发成为人们获取信息的主要来源。有效提升用户浏览信息的效率,准确推送用户关注的个性化内容,成为当前的热门需求。利用Python爬取了平台一周时间内用户在信息流产品上的曝光历史,对数据进行处理和分析。引入Transformer深度神经网络模型和最相似用户估计模型并将其融合来预测用户浏览各个内容的点击率和浏览时长,模型解释性增强,且对不同顺序的推荐序列偏好更敏感。 展开更多
关键词 推荐算法 transformer 神经网络 最相似用户 序列评估
下载PDF
上一页 1 2 250 下一页 到第
使用帮助 返回顶部