针对目前尚未存在有效的中文文本纠错软件测试用例最小化方法的情况,设计了两种中文文本纠错软件测试用例集最小化方法:基于多目标遗传算法的中文文本纠错软件测试用例集最小化方法(Minimization Method based on Multi-objective Genet...针对目前尚未存在有效的中文文本纠错软件测试用例最小化方法的情况,设计了两种中文文本纠错软件测试用例集最小化方法:基于多目标遗传算法的中文文本纠错软件测试用例集最小化方法(Minimization Method based on Multi-objective Genetic Algorithm of Test case for Chinese text error Correction Software,MMG-CCS)和基于TextRank模型的中文文本纠错软件测试用例最小化方法(Minimization Method based on TextRank of Test case for Chinese text error Correction Software,MMT-CCS).MMG-CCS基于问题特点设计了一种中文文本纠错软件测试用例集覆盖度模型,并将测试用例集大小及覆盖度作为目标函数,为了高效求解该问题,MMG-CCS同时对遗传算子进行了改进.此外,MMT-CCS方法能将测试用例集最小化问题映射为图解问题,并根据问题特点对TextRank模型进行了针对性改进.实验结果表明,MMG-CCS和MMT-CCS对测试用例集的缩减程度高,且在不同中文文本纠错软件上对于不同中文文本纠错软件测试用例集均能保持相同的测试效果.展开更多
现有分阶段解码的实体关系抽取模型仍存在着阶段间特征融合不充分的问题,会增大曝光偏差对抽取性能的影响。为此,提出一种双关系预测和特征融合的实体关系抽取模型(entity relation extraction model with dual relation prediction and...现有分阶段解码的实体关系抽取模型仍存在着阶段间特征融合不充分的问题,会增大曝光偏差对抽取性能的影响。为此,提出一种双关系预测和特征融合的实体关系抽取模型(entity relation extraction model with dual relation prediction and feature fusion,DRPFF),该模型使用预训练的基于Transformer的双向编码表示模型(bidirectional encoder representation from transformers,BERT)对文本进行编码,并设计两阶段的双关系预测结构来减少抽取过程中错误三元组的生成。在阶段间通过门控线性单元(gated linear unit,GLU)和条件层规范化(conditional layer normalization,CLN)组合的结构来更好地融合实体之间的特征。在NYT和WebNLG这2个公开数据集上的试验结果表明,该模型相较于基线方法取得了更好的效果。展开更多
文摘针对目前尚未存在有效的中文文本纠错软件测试用例最小化方法的情况,设计了两种中文文本纠错软件测试用例集最小化方法:基于多目标遗传算法的中文文本纠错软件测试用例集最小化方法(Minimization Method based on Multi-objective Genetic Algorithm of Test case for Chinese text error Correction Software,MMG-CCS)和基于TextRank模型的中文文本纠错软件测试用例最小化方法(Minimization Method based on TextRank of Test case for Chinese text error Correction Software,MMT-CCS).MMG-CCS基于问题特点设计了一种中文文本纠错软件测试用例集覆盖度模型,并将测试用例集大小及覆盖度作为目标函数,为了高效求解该问题,MMG-CCS同时对遗传算子进行了改进.此外,MMT-CCS方法能将测试用例集最小化问题映射为图解问题,并根据问题特点对TextRank模型进行了针对性改进.实验结果表明,MMG-CCS和MMT-CCS对测试用例集的缩减程度高,且在不同中文文本纠错软件上对于不同中文文本纠错软件测试用例集均能保持相同的测试效果.
文摘现有分阶段解码的实体关系抽取模型仍存在着阶段间特征融合不充分的问题,会增大曝光偏差对抽取性能的影响。为此,提出一种双关系预测和特征融合的实体关系抽取模型(entity relation extraction model with dual relation prediction and feature fusion,DRPFF),该模型使用预训练的基于Transformer的双向编码表示模型(bidirectional encoder representation from transformers,BERT)对文本进行编码,并设计两阶段的双关系预测结构来减少抽取过程中错误三元组的生成。在阶段间通过门控线性单元(gated linear unit,GLU)和条件层规范化(conditional layer normalization,CLN)组合的结构来更好地融合实体之间的特征。在NYT和WebNLG这2个公开数据集上的试验结果表明,该模型相较于基线方法取得了更好的效果。