期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
4
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于标签语义信息感知的少样本命名实体识别方法
1
作者
张越
王长征
+4 位作者
苏雪峰
闫智超
张广军
邵文远
李茹
《北京大学学报(自然科学版)》
EI
CAS
CSCD
北大核心
2024年第3期413-421,共9页
在少样本命名实体识别方法中,目前广泛应用的方法是基于原型网络的两阶段模型。但是,该方法未充分利用实体标签中的语义信息,且在距离计算中过度依赖实体类型原型向量,导致模型泛化能力差。针对这些问题,提出一种基于标签语义信息感知...
在少样本命名实体识别方法中,目前广泛应用的方法是基于原型网络的两阶段模型。但是,该方法未充分利用实体标签中的语义信息,且在距离计算中过度依赖实体类型原型向量,导致模型泛化能力差。针对这些问题,提出一种基于标签语义信息感知的少样本命名实体识别方法。该方法是一种先进行实体跨度检测,再判断实体类型的两阶段方法。在构建实体类型原型向量时,将对应实体类型包含的语义信息考虑在内,通过维度转换层将其与原型向量相融合。在对新样本进行实体识别时,将实体类型的正负样本与实体类型原型向量组成实体类型三元组,依据样本到三元组的距离对其进行分类。在多个数据集上的实验结果证明,该模型的性能比以往的模型有较大的提升。
展开更多
关键词
少样本命名实体识别
标签语义信息
感知
实体类型三元组
原型网络
下载PDF
职称材料
融合BERT与标签语义注意力的文本多标签分类方法
被引量:
13
2
作者
吕学强
彭郴
+2 位作者
张乐
董志安
游新冬
《计算机应用》
CSCD
北大核心
2022年第1期57-63,共7页
多标签文本分类(MLTC)是自然语言处理(NLP)领域的重要子课题之一。针对多个标签之间存在复杂关联性的问题,提出了一种融合BERT与标签语义注意力的MLTC方法TLA-BERT。首先,通过对自编码预训练模型进行微调,从而学习输入文本的上下文向量...
多标签文本分类(MLTC)是自然语言处理(NLP)领域的重要子课题之一。针对多个标签之间存在复杂关联性的问题,提出了一种融合BERT与标签语义注意力的MLTC方法TLA-BERT。首先,通过对自编码预训练模型进行微调,从而学习输入文本的上下文向量表示;然后,使用长短期记忆(LSTM)神经网络将标签进行单独编码;最后,利用注意力机制显性突出文本对每个标签的贡献,以预测多标签序列。实验结果表明,与基于序列生成模型(SGM)算法相比,所提出的方法在AAPD与RCV1-v2公开数据集上,F1值分别提高了2.8个百分点与1.5个百分点。
展开更多
关键词
多
标签
分类
BERT
标签语义信息
双向长短期记忆神经网络
注意力机制
下载PDF
职称材料
基于多级语义信息融合编码的序列标注方法
3
作者
蔡雨岐
郭卫斌
《计算机工程与科学》
CSCD
北大核心
2022年第12期2266-2272,共7页
序列标注是自然语言处理领域的基本任务。目前大多数序列标注方法采用循环神经网络及其变体直接提取序列中的上下文语义信息,尽管有效地捕捉到了词之间的连续依赖关系并取得了不错的性能,但捕获序列中离散依赖关系的能力不足,同时也忽...
序列标注是自然语言处理领域的基本任务。目前大多数序列标注方法采用循环神经网络及其变体直接提取序列中的上下文语义信息,尽管有效地捕捉到了词之间的连续依赖关系并取得了不错的性能,但捕获序列中离散依赖关系的能力不足,同时也忽略了词与标签之间的联系。因此,提出了一种多级语义信息融合编码方式,首先,通过双向长短期记忆网络提取序列上下文语义信息;然后,利用注意力机制将标签语义信息添加到上下文语义信息中,得到融合标签语义信息的上下文语义信息;接着,引入自注意力机制捕捉序列中的离散依赖关系,得到含有离散依赖关系的上下文语义信息;最后,使用融合机制将3种语义信息融合,得到一种全新的语义信息。实验结果表明,相比于采用循环神经网络或其变体对序列直接编码的方式,多级语义信息融合编码方式能明显提升模型性能。
展开更多
关键词
序列标注
多级
语义
信息
融合编码
标签语义信息
注意力机制
融合机制
下载PDF
职称材料
融合标签语义特征的BERT微调问句分类方法
被引量:
1
4
作者
亢文倩
《电视技术》
2022年第5期46-49,53,共5页
问句分类(Question Classification,QC)对提高问答系统的质量和性能有着重要的作用。目前,现有的问句分类方法面临着数据稀疏的问题。双向编码器表征量(Bidirectional Encoder Representations from Transformers,BERT)微调可以实现跨...
问句分类(Question Classification,QC)对提高问答系统的质量和性能有着重要的作用。目前,现有的问句分类方法面临着数据稀疏的问题。双向编码器表征量(Bidirectional Encoder Representations from Transformers,BERT)微调可以实现跨领域问句分类,是一种很好的解决新领域带标签问句稀疏的措施。然而,这种方法往往忽略了自然语言类标签提供的显式语义信息。如果要扩展问句分类器以预测新类,且只有少数训练示例,则可以利用该类标签提供的语义信息,预测问句与标签之间的关联。本文将类别标签的特征引入BERT微调模型,简称为L-BERT-FiT。实验结果表明,相较于BERT微调,改进后模型的平均分类精度提升了约2.86%。
展开更多
关键词
跨领域问句分类
深度迁移学习
微调
类
标签语义信息
下载PDF
职称材料
题名
基于标签语义信息感知的少样本命名实体识别方法
1
作者
张越
王长征
苏雪峰
闫智超
张广军
邵文远
李茹
机构
山西大学计算机与信息技术学院
山西同方知网数字出版技术有限公司
山西工程科技职业大学现代物流学院
山西大学计算智能与中文信息处理教育部重点实验室
出处
《北京大学学报(自然科学版)》
EI
CAS
CSCD
北大核心
2024年第3期413-421,共9页
基金
山西省重点研发计划(202102020101008)
山西省科技合作交流专项(202204041101016)
山西省1331工程项目资助。
文摘
在少样本命名实体识别方法中,目前广泛应用的方法是基于原型网络的两阶段模型。但是,该方法未充分利用实体标签中的语义信息,且在距离计算中过度依赖实体类型原型向量,导致模型泛化能力差。针对这些问题,提出一种基于标签语义信息感知的少样本命名实体识别方法。该方法是一种先进行实体跨度检测,再判断实体类型的两阶段方法。在构建实体类型原型向量时,将对应实体类型包含的语义信息考虑在内,通过维度转换层将其与原型向量相融合。在对新样本进行实体识别时,将实体类型的正负样本与实体类型原型向量组成实体类型三元组,依据样本到三元组的距离对其进行分类。在多个数据集上的实验结果证明,该模型的性能比以往的模型有较大的提升。
关键词
少样本命名实体识别
标签语义信息
感知
实体类型三元组
原型网络
Keywords
few-shot named entity recognition(NER)
semantic information awareness of labels
entity type triplet
prototypical network
分类号
TP391.1 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
融合BERT与标签语义注意力的文本多标签分类方法
被引量:
13
2
作者
吕学强
彭郴
张乐
董志安
游新冬
机构
网络文化与数字传播北京市重点实验室(北京信息科技大学)
出处
《计算机应用》
CSCD
北大核心
2022年第1期57-63,共7页
基金
北京市自然科学基金资助项目(4212020)
青海省藏文信息处理与机器翻译重点实验室/藏文信息处理教育部重点实验室开放课题基金资助项目(2019Z002)。
文摘
多标签文本分类(MLTC)是自然语言处理(NLP)领域的重要子课题之一。针对多个标签之间存在复杂关联性的问题,提出了一种融合BERT与标签语义注意力的MLTC方法TLA-BERT。首先,通过对自编码预训练模型进行微调,从而学习输入文本的上下文向量表示;然后,使用长短期记忆(LSTM)神经网络将标签进行单独编码;最后,利用注意力机制显性突出文本对每个标签的贡献,以预测多标签序列。实验结果表明,与基于序列生成模型(SGM)算法相比,所提出的方法在AAPD与RCV1-v2公开数据集上,F1值分别提高了2.8个百分点与1.5个百分点。
关键词
多
标签
分类
BERT
标签语义信息
双向长短期记忆神经网络
注意力机制
Keywords
multi-label classification
Bidirectional Encoder Representations from Transformers(BERT)
label semantic information
Bidirectional Long Short-Term Memory(BiLSTM)neural network
attention mechanism
分类号
TP391.1 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
基于多级语义信息融合编码的序列标注方法
3
作者
蔡雨岐
郭卫斌
机构
华东理工大学信息科学与工程学院
出处
《计算机工程与科学》
CSCD
北大核心
2022年第12期2266-2272,共7页
基金
国家自然科学基金(61672227)。
文摘
序列标注是自然语言处理领域的基本任务。目前大多数序列标注方法采用循环神经网络及其变体直接提取序列中的上下文语义信息,尽管有效地捕捉到了词之间的连续依赖关系并取得了不错的性能,但捕获序列中离散依赖关系的能力不足,同时也忽略了词与标签之间的联系。因此,提出了一种多级语义信息融合编码方式,首先,通过双向长短期记忆网络提取序列上下文语义信息;然后,利用注意力机制将标签语义信息添加到上下文语义信息中,得到融合标签语义信息的上下文语义信息;接着,引入自注意力机制捕捉序列中的离散依赖关系,得到含有离散依赖关系的上下文语义信息;最后,使用融合机制将3种语义信息融合,得到一种全新的语义信息。实验结果表明,相比于采用循环神经网络或其变体对序列直接编码的方式,多级语义信息融合编码方式能明显提升模型性能。
关键词
序列标注
多级
语义
信息
融合编码
标签语义信息
注意力机制
融合机制
Keywords
sequence labeling
multi-level semantic information fusion coding
label semantic information
attention mechanism
fusion mechanism
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
融合标签语义特征的BERT微调问句分类方法
被引量:
1
4
作者
亢文倩
机构
昆明理工大学信息工程与自动化学院
出处
《电视技术》
2022年第5期46-49,53,共5页
文摘
问句分类(Question Classification,QC)对提高问答系统的质量和性能有着重要的作用。目前,现有的问句分类方法面临着数据稀疏的问题。双向编码器表征量(Bidirectional Encoder Representations from Transformers,BERT)微调可以实现跨领域问句分类,是一种很好的解决新领域带标签问句稀疏的措施。然而,这种方法往往忽略了自然语言类标签提供的显式语义信息。如果要扩展问句分类器以预测新类,且只有少数训练示例,则可以利用该类标签提供的语义信息,预测问句与标签之间的关联。本文将类别标签的特征引入BERT微调模型,简称为L-BERT-FiT。实验结果表明,相较于BERT微调,改进后模型的平均分类精度提升了约2.86%。
关键词
跨领域问句分类
深度迁移学习
微调
类
标签语义信息
Keywords
cross-domain question classification
deep transfer learning
fine-tuning
class label semantic information
分类号
TP311.5 [自动化与计算机技术—计算机软件与理论]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于标签语义信息感知的少样本命名实体识别方法
张越
王长征
苏雪峰
闫智超
张广军
邵文远
李茹
《北京大学学报(自然科学版)》
EI
CAS
CSCD
北大核心
2024
0
下载PDF
职称材料
2
融合BERT与标签语义注意力的文本多标签分类方法
吕学强
彭郴
张乐
董志安
游新冬
《计算机应用》
CSCD
北大核心
2022
13
下载PDF
职称材料
3
基于多级语义信息融合编码的序列标注方法
蔡雨岐
郭卫斌
《计算机工程与科学》
CSCD
北大核心
2022
0
下载PDF
职称材料
4
融合标签语义特征的BERT微调问句分类方法
亢文倩
《电视技术》
2022
1
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部