期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
采用BERT-BiLSTM-CRF模型的中文位置语义解析
被引量:
4
1
作者
邓庆康
李晓林
《软件导刊》
2022年第2期37-42,共6页
针对利用当前神经网络模型进行中文位置语义解析存在多义词解析效果差、泛化能力差等问题,提出一种基于BERT-BiLSTM-CRF模型的中文位置语义解析方法。首先利用BERT预训练模型对中文位置信息进行预训练,获取所有层中的上下文信息,增强中...
针对利用当前神经网络模型进行中文位置语义解析存在多义词解析效果差、泛化能力差等问题,提出一种基于BERT-BiLSTM-CRF模型的中文位置语义解析方法。首先利用BERT预训练模型对中文位置信息进行预训练,获取所有层中的上下文信息,增强中文位置信息的语义表征能力,然后通过BiLSTM模型提取向量特征信息,最后通过CRF模型进行解码,获取全局最优标注序列。实验结果表明,在不同数量和区域的中文位置信息数据集基础上,BERT-BiLSTM-CRF模型在所有测试集上分词准确率与F1值都优于目前常用的神经网络模型,最高分别可达到93.91%和93.96%。利用BERT-BiLSTM-CRF模型对中文位置信息进行语义解析,不仅有效提高了中文位置信息解析与多义词解析的准确率,而且具有更好的泛化能力。
展开更多
关键词
中文位置语义解析
BERT预训练模型
BiLSTM模型
CRF模型
下载PDF
职称材料
题名
采用BERT-BiLSTM-CRF模型的中文位置语义解析
被引量:
4
1
作者
邓庆康
李晓林
机构
武汉工程大学计算机科学与工程学院
智能机器人湖北省重点实验室
出处
《软件导刊》
2022年第2期37-42,共6页
基金
国家重点研发计划项目(2017YFB0503701)
湖北省技术创新专项(2019AAA045)。
文摘
针对利用当前神经网络模型进行中文位置语义解析存在多义词解析效果差、泛化能力差等问题,提出一种基于BERT-BiLSTM-CRF模型的中文位置语义解析方法。首先利用BERT预训练模型对中文位置信息进行预训练,获取所有层中的上下文信息,增强中文位置信息的语义表征能力,然后通过BiLSTM模型提取向量特征信息,最后通过CRF模型进行解码,获取全局最优标注序列。实验结果表明,在不同数量和区域的中文位置信息数据集基础上,BERT-BiLSTM-CRF模型在所有测试集上分词准确率与F1值都优于目前常用的神经网络模型,最高分别可达到93.91%和93.96%。利用BERT-BiLSTM-CRF模型对中文位置信息进行语义解析,不仅有效提高了中文位置信息解析与多义词解析的准确率,而且具有更好的泛化能力。
关键词
中文位置语义解析
BERT预训练模型
BiLSTM模型
CRF模型
Keywords
semantic analysis of Chinese location
BERT pre-training model
BiLSTM model
CRF model
分类号
TP391.1 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
采用BERT-BiLSTM-CRF模型的中文位置语义解析
邓庆康
李晓林
《软件导刊》
2022
4
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部