期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
基于傅里叶变换的加速推理方法
1
作者 薛丽霞 禚天宇 +1 位作者 汪荣贵 杨娟 《计算机应用》 CSCD 北大核心 2023年第S02期22-27,共6页
针对预训练模型推理代价过大的问题,提出一种基于傅里叶变换的加速推理方法。首先,使用傅里叶变换子层替代部分Transformer模块的自注意力子层,从而降低推理时间;然后,使用贪婪微调方法,即在预训练模型上对每一个编码层进行总体微调,使... 针对预训练模型推理代价过大的问题,提出一种基于傅里叶变换的加速推理方法。首先,使用傅里叶变换子层替代部分Transformer模块的自注意力子层,从而降低推理时间;然后,使用贪婪微调方法,即在预训练模型上对每一个编码层进行总体微调,使得模型中低层也具有高级语义知识,提高模型中低层的准确率与推理速度。为验证所提方法的有效性,在6个英文数据集上进行了实验。实验结果表明,在熵阈值为0.1时,与Dee-BERT(Dynamic early exiting for BERT)相比,所提方法的准确率平均下降了0.19个百分点,推理速度平均提升了73%;在熵阈值为0.5时,与Dee-BERT相比,所提方法的准确率平均下降了0.41个百分点,推理速度平均提升了62%,验证了所提方法可以有效提高推理速度。 展开更多
关键词 Transformer算法 提前退出模型 自然语言处理 轻量化 傅里叶变换
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部