知识库问答(Knowledge Base Question Answering)有两个子任务:实体链接和关系预测。实体链接任务(Entity linking)是对于一个给定的文本,识别出其中实体指代(Mention),并关联到知识库对应话题实体的过程。实体链接包括实体指代识别(MD...知识库问答(Knowledge Base Question Answering)有两个子任务:实体链接和关系预测。实体链接任务(Entity linking)是对于一个给定的文本,识别出其中实体指代(Mention),并关联到知识库对应话题实体的过程。实体链接包括实体指代识别(MD)和实体消歧(ED)两个子任务。由于存在口语化严重、短文本信息少、实体多歧义多等问题,在中文数据集中更具挑战。传统方法并未充分利用知识库,缺少对短文本中指代和知识库实体的表示深入探究,本文提出用加入知识库标记的BERT模型进行实体识别,加入知识库标记及实体子图的BERT-SiameseFNN网络得到指代和候选实体的语义表示,进行实体消歧。通过在多个中文数据集上验证,表明该方法得到更充分利用知识库,并得到更好的匹配表示,有效提升实体链接性能。展开更多
文摘知识库问答(Knowledge Base Question Answering)有两个子任务:实体链接和关系预测。实体链接任务(Entity linking)是对于一个给定的文本,识别出其中实体指代(Mention),并关联到知识库对应话题实体的过程。实体链接包括实体指代识别(MD)和实体消歧(ED)两个子任务。由于存在口语化严重、短文本信息少、实体多歧义多等问题,在中文数据集中更具挑战。传统方法并未充分利用知识库,缺少对短文本中指代和知识库实体的表示深入探究,本文提出用加入知识库标记的BERT模型进行实体识别,加入知识库标记及实体子图的BERT-SiameseFNN网络得到指代和候选实体的语义表示,进行实体消歧。通过在多个中文数据集上验证,表明该方法得到更充分利用知识库,并得到更好的匹配表示,有效提升实体链接性能。