木材密度包括基本密度、气干密度等,在12%含水率条件下的气干密度(D12)较常用,因此有必要将木材气干密度换算为基本密度(Db)。目前利用木材气干密度计算基本密度的模型有Reyes、Chave、Simpson和Vieilledent模型等,然而这些模型预测结...木材密度包括基本密度、气干密度等,在12%含水率条件下的气干密度(D12)较常用,因此有必要将木材气干密度换算为基本密度(Db)。目前利用木材气干密度计算基本密度的模型有Reyes、Chave、Simpson和Vieilledent模型等,然而这些模型预测结果不完全一致。利用中国林业科学研究院木材工业研究所(Research Institute of Wood Industry,Chinese Academy of Forestry,CRIWI)和法国农业国际合作研究发展中心(French Agricultural Research Centre for International Development,CIRAD)的木材D12和Db数据,首先基于CRIWI的木材密度数据建立D12与Db的关系模型,然后将CRIWI和CIRAD的D12数据分别代入Reyes模型、Chave模型、Simpson模型、Vieilledent模型和新建模型,获得每个树种木材Db的预测值,并根据Db预测值和实测值计算残差绝对值均值。不同模型残差绝对值均值比较结果表明:Reyes模型在利用CRIWI和CIRAD的木材密度数据时预测Db的准确性都比较高,适用性最广;Simpson模型、新建模型在D12高于1.0 g/cm3时预测Db的准确性降低。展开更多
古汉语文本承载着丰富的历史和文化信息,对这类文本进行实体关系抽取研究并构建相关知识图谱对于文化传承具有重要作用.针对古汉语文本中存在大量生僻汉字、语义模糊和复义等问题,提出了一种基于BERT古文预训练模型的实体关系联合抽取模...古汉语文本承载着丰富的历史和文化信息,对这类文本进行实体关系抽取研究并构建相关知识图谱对于文化传承具有重要作用.针对古汉语文本中存在大量生僻汉字、语义模糊和复义等问题,提出了一种基于BERT古文预训练模型的实体关系联合抽取模型(entity relation joint extraction model based on BERT-ancient-Chinese pretrained model,JEBAC).首先,通过融合BiLSTM神经网络和注意力机制的BERT古文预训练模型(BERT-ancientChinese pre-trained model integrated BiLSTM neural network and attention mechanism,BACBA),识别出句中所有的subject实体和object实体,为关系和object实体联合抽取提供依据.接下来,将subject实体的归一化编码向量与整个句子的嵌入向量相加,以更好地理解句中subject实体的语义特征;最后,结合带有subject实体特征的句子向量和object实体的提示信息,通过BACBA实现句中关系和object实体的联合抽取,从而得到句中所有的三元组信息(subject实体,关系,object实体).在中文实体关系抽取DuIE2.0数据集和CCKS 2021的文言文实体关系抽取CCLUE小样本数据集上,与现有的方法进行了性能比较.实验结果表明,该方法在抽取性能上更加有效,F1值分别可达79.2%和55.5%.展开更多
文摘木材密度包括基本密度、气干密度等,在12%含水率条件下的气干密度(D12)较常用,因此有必要将木材气干密度换算为基本密度(Db)。目前利用木材气干密度计算基本密度的模型有Reyes、Chave、Simpson和Vieilledent模型等,然而这些模型预测结果不完全一致。利用中国林业科学研究院木材工业研究所(Research Institute of Wood Industry,Chinese Academy of Forestry,CRIWI)和法国农业国际合作研究发展中心(French Agricultural Research Centre for International Development,CIRAD)的木材D12和Db数据,首先基于CRIWI的木材密度数据建立D12与Db的关系模型,然后将CRIWI和CIRAD的D12数据分别代入Reyes模型、Chave模型、Simpson模型、Vieilledent模型和新建模型,获得每个树种木材Db的预测值,并根据Db预测值和实测值计算残差绝对值均值。不同模型残差绝对值均值比较结果表明:Reyes模型在利用CRIWI和CIRAD的木材密度数据时预测Db的准确性都比较高,适用性最广;Simpson模型、新建模型在D12高于1.0 g/cm3时预测Db的准确性降低。
文摘古汉语文本承载着丰富的历史和文化信息,对这类文本进行实体关系抽取研究并构建相关知识图谱对于文化传承具有重要作用.针对古汉语文本中存在大量生僻汉字、语义模糊和复义等问题,提出了一种基于BERT古文预训练模型的实体关系联合抽取模型(entity relation joint extraction model based on BERT-ancient-Chinese pretrained model,JEBAC).首先,通过融合BiLSTM神经网络和注意力机制的BERT古文预训练模型(BERT-ancientChinese pre-trained model integrated BiLSTM neural network and attention mechanism,BACBA),识别出句中所有的subject实体和object实体,为关系和object实体联合抽取提供依据.接下来,将subject实体的归一化编码向量与整个句子的嵌入向量相加,以更好地理解句中subject实体的语义特征;最后,结合带有subject实体特征的句子向量和object实体的提示信息,通过BACBA实现句中关系和object实体的联合抽取,从而得到句中所有的三元组信息(subject实体,关系,object实体).在中文实体关系抽取DuIE2.0数据集和CCKS 2021的文言文实体关系抽取CCLUE小样本数据集上,与现有的方法进行了性能比较.实验结果表明,该方法在抽取性能上更加有效,F1值分别可达79.2%和55.5%.