目的为了解决包装行业相关文本命名实体识别困难问题,提出在BiLSTM(Bidirectional Long Short-Term Memory)神经网络中加入注意力机制(Attention)和字词联合特征,构建一种基于注意力机制的BiLSTM深度学习模型(简称Attention-BiLSTM),以...目的为了解决包装行业相关文本命名实体识别困难问题,提出在BiLSTM(Bidirectional Long Short-Term Memory)神经网络中加入注意力机制(Attention)和字词联合特征,构建一种基于注意力机制的BiLSTM深度学习模型(简称Attention-BiLSTM),以识别包装命名实体。方法首先构建包装领域词典匹配包装语料中词语的类别特征,同时将包装语料转换为字特征和词特征联合的向量特征,并且在过程中加入POS(词性)信息。然后将以上特征联合馈送到BiLSTM网络,以获取文本的全局特征,并利用注意力机制获取局部特征。最后根据文本的全局特征和局部特征使用CRF(Conditional Random Field)解码整个句子的最优标注序列。结果通过对《中国包装网》新闻数据集的实验,获得了85.6%的F值。结论所提方法在包装命名实体识别中优于传统方法。展开更多
提出一种基于BERT(bidirectional encoder representations from transformers)和TextRank关键词提取的实体链接方法。将BERT预训练语言模型引入实体链接任务,进行实体指称上下文和候选实体相关信息的关联度分析,通过提升语义分析的效...提出一种基于BERT(bidirectional encoder representations from transformers)和TextRank关键词提取的实体链接方法。将BERT预训练语言模型引入实体链接任务,进行实体指称上下文和候选实体相关信息的关联度分析,通过提升语义分析的效果来增强实体链接的结果。采用TextRank关键词提取技术增强目标实体综合描述信息的主题信息,增强文本相似度度量的准确性,从而优化模型效果。使用CCKS2019评测任务二的数据集对模型效果进行验证,实验结果表明,所提方法的实体链接效果明显优于其他实体链接方法,能有效解决实体链接问题。展开更多
文摘目的为了解决包装行业相关文本命名实体识别困难问题,提出在BiLSTM(Bidirectional Long Short-Term Memory)神经网络中加入注意力机制(Attention)和字词联合特征,构建一种基于注意力机制的BiLSTM深度学习模型(简称Attention-BiLSTM),以识别包装命名实体。方法首先构建包装领域词典匹配包装语料中词语的类别特征,同时将包装语料转换为字特征和词特征联合的向量特征,并且在过程中加入POS(词性)信息。然后将以上特征联合馈送到BiLSTM网络,以获取文本的全局特征,并利用注意力机制获取局部特征。最后根据文本的全局特征和局部特征使用CRF(Conditional Random Field)解码整个句子的最优标注序列。结果通过对《中国包装网》新闻数据集的实验,获得了85.6%的F值。结论所提方法在包装命名实体识别中优于传统方法。
文摘提出一种基于BERT(bidirectional encoder representations from transformers)和TextRank关键词提取的实体链接方法。将BERT预训练语言模型引入实体链接任务,进行实体指称上下文和候选实体相关信息的关联度分析,通过提升语义分析的效果来增强实体链接的结果。采用TextRank关键词提取技术增强目标实体综合描述信息的主题信息,增强文本相似度度量的准确性,从而优化模型效果。使用CCKS2019评测任务二的数据集对模型效果进行验证,实验结果表明,所提方法的实体链接效果明显优于其他实体链接方法,能有效解决实体链接问题。