期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于多任务蒸馏的意图识别和槽位填充
1
作者
高子雄
蒋盛益
+1 位作者
欧炎镁
禤镇宇
《陕西师范大学学报(自然科学版)》
CAS
CSCD
北大核心
2024年第3期96-104,共9页
BERT等预训练模型在很多NLP任务上取得了良好的效果,但预训练模型参数规模大,运算量大,对硬件资源要求高,难以部署在小型的配置环境中。模型压缩是解决该问题的关键,知识蒸馏是目前较好的模型压缩方法。基于此,提出基于多任务蒸馏的句...
BERT等预训练模型在很多NLP任务上取得了良好的效果,但预训练模型参数规模大,运算量大,对硬件资源要求高,难以部署在小型的配置环境中。模型压缩是解决该问题的关键,知识蒸馏是目前较好的模型压缩方法。基于此,提出基于多任务蒸馏的句意图识别和槽位填充联合模型,该模型将ALBERT运用到任务型对话系统中,并利用知识蒸馏策略将ALBERT模型知识迁移到BiLSTM模型。实验结果表明,基于ALBERT的联合模型在SMP 2019评测数据集中的句准确率为77.74%,单独训练的BiLSTM模型句准确率为58.33%,而蒸馏模型的句准确率为67.22%,在比BiLSTM高8.89%的情况下,推断速度约为ALBERT的18.9倍。
展开更多
关键词
意图识别与槽位填充
神经网络
知识蒸馏
下载PDF
职称材料
题名
基于多任务蒸馏的意图识别和槽位填充
1
作者
高子雄
蒋盛益
欧炎镁
禤镇宇
机构
广东外语外贸大学信息科学与技术学院/网络空间安全学院
出处
《陕西师范大学学报(自然科学版)》
CAS
CSCD
北大核心
2024年第3期96-104,共9页
基金
国家自然科学基金(61572145)。
文摘
BERT等预训练模型在很多NLP任务上取得了良好的效果,但预训练模型参数规模大,运算量大,对硬件资源要求高,难以部署在小型的配置环境中。模型压缩是解决该问题的关键,知识蒸馏是目前较好的模型压缩方法。基于此,提出基于多任务蒸馏的句意图识别和槽位填充联合模型,该模型将ALBERT运用到任务型对话系统中,并利用知识蒸馏策略将ALBERT模型知识迁移到BiLSTM模型。实验结果表明,基于ALBERT的联合模型在SMP 2019评测数据集中的句准确率为77.74%,单独训练的BiLSTM模型句准确率为58.33%,而蒸馏模型的句准确率为67.22%,在比BiLSTM高8.89%的情况下,推断速度约为ALBERT的18.9倍。
关键词
意图识别与槽位填充
神经网络
知识蒸馏
Keywords
intention recognition and slot filling
neural network
knowledge distillation
分类号
O152.1 [理学—基础数学]
O413.1 [理学—理论物理]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于多任务蒸馏的意图识别和槽位填充
高子雄
蒋盛益
欧炎镁
禤镇宇
《陕西师范大学学报(自然科学版)》
CAS
CSCD
北大核心
2024
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部