期刊文献+
共找到57篇文章
< 1 2 3 >
每页显示 20 50 100
基于改进降噪自编码器和多元时序聚类的海上风电功率预测
1
作者 周海 刘建锋 +3 位作者 周健 周勇良 李美玉 励晨阳 《太阳能学报》 EI CAS CSCD 北大核心 2023年第3期129-138,共10页
针对海上数值天气预报(NWP)精度低、气象因素复杂等特点,提出一种基于改进的双向降噪自编码器(BDAE)和多元时序聚类的短期海上风电功率预测方法。首先,利用Toeplitz矩阵逆协方差聚类(TICC)进行风况相似性分类,即根据30、70、100 m海上NW... 针对海上数值天气预报(NWP)精度低、气象因素复杂等特点,提出一种基于改进的双向降噪自编码器(BDAE)和多元时序聚类的短期海上风电功率预测方法。首先,利用Toeplitz矩阵逆协方差聚类(TICC)进行风况相似性分类,即根据30、70、100 m海上NWP风速进行多元序列实时分割与聚类;然后,针对不同风况类型分别建立可提取过去、未来双向有效信息的改进BDAE修正模型,以修正轮毂高度风速的预测误差;最后,基于修正后的轮毂高度风速以及其余NWP数据,利用TICC算法划分气象相似类型,并在此基础上建立对应的海上风电功率预测模型。采用国内某海上风电场数据进行实验验证,结果表明所提方法能提高海上风电功率预测精度,具有一定工程实用价值。 展开更多
关键词 海上风电场 天气预报 聚类算法 风电功率预测 改进双向降噪自编码器 多元时间序列
下载PDF
面向关节坐标运动数据重定向的通用双向循环自编码器
2
作者 周阳 李书杰 +1 位作者 朱海生 刘晓平 《计算机辅助设计与图形学学报》 EI CSCD 北大核心 2020年第2期315-324,333,共11页
针对面向关节坐标表示的骨骼运动数据重定向网络缺乏通用性的问题,提出一种能够实现源骨骼到多种骨骼运动重定向的通用双向循环自编码器.该自编码器由基于关节坐标表示的运动数据以重建误差为损失函数训练得到.在完成训练后,首先用自编... 针对面向关节坐标表示的骨骼运动数据重定向网络缺乏通用性的问题,提出一种能够实现源骨骼到多种骨骼运动重定向的通用双向循环自编码器.该自编码器由基于关节坐标表示的运动数据以重建误差为损失函数训练得到.在完成训练后,首先用自编码器计算源运动数据对应的隐变量和重建运动,然后对重建运动施加骨骼长度约束、足迹约束、根关节位置约束以及骨骼角度约束,并将损失反向传播至隐变量空间中优化隐变量,通过多次迭代得到重定向后运动.在CMU运动数据库上的实验结果表明,提出的自编码器及4种约束能够实现基于关节坐标表示的运动数据的重定向,并且得到的重定向运动在骨骼长度误差、骨骼角度误差、末端效应器轨迹以及平滑性上具有更好的效果. 展开更多
关键词 运动重定向 双向循环自编码器 关节坐标
下载PDF
一种提高跨语言理解的NLP迁移学习
3
作者 王坤 盛鸿宇 《西南大学学报(自然科学版)》 CAS CSCD 北大核心 2024年第4期153-163,共11页
随着互联网信息的发展,如何有效地表示不同语言所含的信息已成为自然语言处理(Natural Language Processing,NLP)领域的一项重要任务.然而,很多传统的机器学习模型依赖在高资源语言中进行训练,无法迁移到低资源语言中使用.为了解决这一... 随着互联网信息的发展,如何有效地表示不同语言所含的信息已成为自然语言处理(Natural Language Processing,NLP)领域的一项重要任务.然而,很多传统的机器学习模型依赖在高资源语言中进行训练,无法迁移到低资源语言中使用.为了解决这一问题,结合迁移学习和深度学习模型,提出一种多语言双向编码器表征量(Multi-lingual Bidirectional Encoder Representations from Transformers,M-BERT)的迁移学习方法.该方法利用M-BERT作为特征提取器,在源语言领域和目标语言领域之间进行特征转换,减小不同语言领域之间的差异,从而提高目标任务在不同领域之间的泛化能力.首先,在构建BERT模型的基础上,通过数据收集处理、训练设置、参数估计和模型训练等预训练操作完成M-BERT模型的构建,并在目标任务上进行微调.然后,利用迁移学习实现M-BERT模型在跨语言文本分析方面的应用.最后,在从英语到法语和德语的跨语言迁移实验中,证明了本文模型具有较高的性能质量和较小的计算量,并在联合训练方案中达到了96.2%的准确率.研究结果表明,该文模型实现了跨语言数据迁移,且验证了其在跨语言NLP领域的有效性和创新性. 展开更多
关键词 自然语言处理 多语言双向编码器表征量 迁移学习 跨语言 深度学习
下载PDF
基于BERT+CNN_BiLSTM的列控车载设备故障诊断
4
作者 陈永刚 贾水兰 +2 位作者 朱键 韩思成 熊文祥 《Journal of Measurement Science and Instrumentation》 CAS CSCD 2024年第1期120-127,共8页
列控车载设备作为列车运行控制系统核心设备,在高速列车运行过程中发挥着重要作用。目前,其故障诊断仅依赖于现场作业人员经验,诊断效率相对较低。为了实现列控车载设备故障自动诊断并提高诊断效率,提出了BERT+CNN_BiLSTM故障诊断模型... 列控车载设备作为列车运行控制系统核心设备,在高速列车运行过程中发挥着重要作用。目前,其故障诊断仅依赖于现场作业人员经验,诊断效率相对较低。为了实现列控车载设备故障自动诊断并提高诊断效率,提出了BERT+CNN_BiLSTM故障诊断模型。首先,使用来自变换器的双向编码器表征量(Bidirectional encoder representations from transformers,BERT)模型将应用事件日志(Application event log,AElog)转换为计算机能够识别的可以挖掘语义信息的文本向量表示。其次,分别利用卷积神经网络(Convolutional neural network,CNN)和双向长短时记忆网络(Bidirectional long short-term memory,BiLSTM)提取故障特征并进行组合,从而增强空间和时序能力。最后,利用Softmax实现列控车载设备的故障分类与诊断。实验中,选取一列实际运行的列车为研究对象,以运行过程中产生的AElog日志作为实验数据来验证BERT+CNN_BiLSTM模型的性能。与传统机器学习算法、BERT+BiLSTM模型和BERT+CNN模型相比,BERT+CNN_BiLSTM模型的准确率、召回率和F1分别为92.27%、91.03%和91.64%,表明该模型在高速列车控制系统故障诊断中性能优良。 展开更多
关键词 车载设备 故障诊断 来自变换器的双向编码器表征量 应用事件日志 双向长短时记忆网络 卷积神经网络
下载PDF
ALBERT预训练模型在医疗文书命名实体识别中的应用研究
5
作者 庞秋奔 李银 《信息与电脑》 2024年第6期152-156,共5页
中文电子病历命名实体识别主要是研究电子病历病程记录文书数据集,文章提出对医疗手术麻醉文书数据集进行命名实体识别的研究。利用轻量级来自Transformer的双向编码器表示(A Lite Bidirectional Encoder Representation from Transform... 中文电子病历命名实体识别主要是研究电子病历病程记录文书数据集,文章提出对医疗手术麻醉文书数据集进行命名实体识别的研究。利用轻量级来自Transformer的双向编码器表示(A Lite Bidirectional Encoder Representation from Transformers,ALBERT)预训练模型微调数据集和Tranfomers中的trainer训练器训练模型的方法,实现在医疗手术麻醉文书上识别手术麻醉事件命名实体与获取复杂麻醉医疗质量控制指标值。文章为医疗手术麻醉文书命名实体识别提供了可借鉴的思路,并且为计算复杂麻醉医疗质量控制指标值提供了一种新的解决方案。 展开更多
关键词 命名实体识别 轻量级来自Transformer的双向编码器表示(ALBERT)模型 TRANSFORMERS 麻醉医疗质量控制指标 医疗手术麻醉文书
下载PDF
基于MacBERT与对抗训练的机器阅读理解模型
6
作者 周昭辰 方清茂 +2 位作者 吴晓红 胡平 何小海 《计算机工程》 CAS CSCD 北大核心 2024年第5期41-50,共10页
机器阅读理解旨在让机器像人类一样理解自然语言文本,并据此进行问答任务。近年来,随着深度学习和大规模数据集的发展,机器阅读理解引起了广泛关注,但是在实际应用中输入的问题通常包含各种噪声和干扰,这些噪声和干扰会影响模型的预测... 机器阅读理解旨在让机器像人类一样理解自然语言文本,并据此进行问答任务。近年来,随着深度学习和大规模数据集的发展,机器阅读理解引起了广泛关注,但是在实际应用中输入的问题通常包含各种噪声和干扰,这些噪声和干扰会影响模型的预测结果。为了提高模型的泛化能力和鲁棒性,提出一种基于掩码校正的来自Transformer的双向编码器表示(Mac BERT)与对抗训练(AT)的机器阅读理解模型。首先利用Mac BERT对输入的问题和文本进行词嵌入转化为向量表示;然后根据原始样本反向传播的梯度变化在原始词向量上添加微小扰动生成对抗样本;最后将原始样本和对抗样本输入双向长短期记忆(Bi LSTM)网络进一步提取文本的上下文特征,输出预测答案。实验结果表明,该模型在简体中文数据集CMRC2018上的F1值和精准匹配(EM)值分别较基线模型提高了1.39和3.85个百分点,在繁体中文数据集DRCD上的F1值和EM值分别较基线模型提高了1.22和1.71个百分点,在英文数据集SQu ADv1.1上的F1值和EM值分别较基线模型提高了2.86和1.85个百分点,优于已有的大部分机器阅读理解模型,并且在真实问答结果上与基线模型进行对比,结果验证了该模型具有更强的鲁棒性和泛化能力,在输入的问题存在噪声的情况下性能更好。 展开更多
关键词 机器阅读理解 对抗训练 预训练模型 掩码校正的来自Transformer的双向编码器表示 双向长短期记忆网络
下载PDF
基于双语义双向对齐VAE的广义零样本学习
7
作者 史彩娟 石泽 +1 位作者 闫巾玮 毕阳阳 《图学学报》 CSCD 北大核心 2023年第3期521-530,共10页
广义零样本学习(GZSL)旨在利用视觉特征和语义信息之间的关系来同时识别可见类和不可见类。现有的大部分方法使用生成模型生成不可见类的伪视觉特征,但一般采用单向对齐VAE且语义原型种类单一,导致不可见类的语义信息非常有限。因此,提... 广义零样本学习(GZSL)旨在利用视觉特征和语义信息之间的关系来同时识别可见类和不可见类。现有的大部分方法使用生成模型生成不可见类的伪视觉特征,但一般采用单向对齐VAE且语义原型种类单一,导致不可见类的语义信息非常有限。因此,提出了一种基于双语义双向对齐变分自编码器的广义零样本学习模型,首先采用户定义的属性和词向量两种语义原型,基于双向对齐的VAE分别稳定地生成2种伪视觉特征来获取丰富的语义信息;然后,设计了特征融合模块对2种伪视觉特征进行有效融合,并去除其中的冗余信息,增强伪视觉特征表示;最后,采用分类正则化进一步增强伪视觉特征的类别独立性。在3个基准数据集上进行了大量实验,并与相关算法模型进行了比较,结果表明了该模型的有效性。 展开更多
关键词 广义零样本学习 生成模型 双语义原型 双向对齐变分自编码器 特征融合增强
下载PDF
基于BERT与生成对抗的民航陆空通话意图挖掘
8
作者 马兰 孟诗君 吴志军 《系统工程与电子技术》 EI CSCD 北大核心 2024年第2期740-750,共11页
针对民航陆空通话领域语料难以获取、实体分布不均,以及意图信息提取中实体规范不足且准确率有待提升等问题,为了更好地提取陆空通话意图信息,提出一种融合本体的基于双向转换编码器(bidirectional encoder representations from transf... 针对民航陆空通话领域语料难以获取、实体分布不均,以及意图信息提取中实体规范不足且准确率有待提升等问题,为了更好地提取陆空通话意图信息,提出一种融合本体的基于双向转换编码器(bidirectional encoder representations from transformers,BERT)与生成对抗网络(generative adversarial network,GAN)的陆空通话意图信息挖掘方法,并引入航班池信息对提取的部分信息进行校验修正,形成空中交通管制(air traffic control,ATC)系统可理解的结构化信息。首先,使用改进的GAN模型进行陆空通话智能文本生成,可有效进行数据增强,平衡各类实体信息分布并扩充数据集;然后,根据欧洲单一天空空中交通管理项目定义的本体规则进行意图的分类与标注;之后,通过BERT预训练模型生成字向量并解决一词多义问题,利用双向长短时记忆(bidirectional long short-term memory,BiLSTM)网络双向编码提取上下句语义特征,同时将该语义特征送入条件随机场(conditional random field,CRF)模型进行推理预测,学习标签的依赖关系并加以约束,以获取全局最优结果;最后,根据编辑距离(edit distance,ED)算法进行意图信息合理性校验与修正。对比实验结果表明,所提方法的宏平均F_(1)值达到了98.75%,在民航陆空通话数据集上的意图挖掘性能优于其他主流模型,为其加入数字化进程奠定了基础。 展开更多
关键词 民航陆空通话 信息提取 生成对抗网络 本体 双向转换编码器
下载PDF
一种建立在GPT-2模型上的数据增强方法
9
作者 张小川 陈盼盼 +2 位作者 邢欣来 杨昌萌 滕达 《智能系统学报》 CSCD 北大核心 2024年第1期209-216,共8页
针对句子分类任务常面临着训练数据不足,而且文本语言具有离散性,在语义保留的条件下进行数据增强具有一定困难,语义一致性和多样性难以平衡的问题,本文提出一种惩罚生成式预训练语言模型的数据增强方法(punishing generative pre-train... 针对句子分类任务常面临着训练数据不足,而且文本语言具有离散性,在语义保留的条件下进行数据增强具有一定困难,语义一致性和多样性难以平衡的问题,本文提出一种惩罚生成式预训练语言模型的数据增强方法(punishing generative pre-trained transformer for data augmentation,PunishGPT-DA)。设计了惩罚项和超参数α,与负对数似然损失函数共同作用微调GPT-2(generative pre-training 2.0),鼓励模型关注那些预测概率较小但仍然合理的输出;使用基于双向编码器表征模型(bidirectional encoder representation from transformers,BERT)的过滤器过滤语义偏差较大的生成样本。本文方法实现了对训练集16倍扩充,与GPT-2相比,在意图识别、问题分类以及情感分析3个任务上的准确率分别提升了1.1%、4.9%和8.7%。实验结果表明,本文提出的方法能够同时有效地控制一致性和多样性需求,提升下游任务模型的训练性能。 展开更多
关键词 自然语言处理 人工智能 数据增强 句子分类 少样本 序列到序列 生成式预训练语言模型 双向编码器表征模型
下载PDF
基于文本提取的法律案件智能判决方法
10
作者 范阿曼 王延川 《微电子学与计算机》 2024年第1期45-52,共8页
深度学习在自然语言处理方面取得了巨大进展,以深度神经网络为代表的模型开始在法律智能判决上被广泛使用。基于Transformer的双向编码器表征法(Bidirectional Encoder Representations from Transformers,BERT)模型能够挖掘法律描述文... 深度学习在自然语言处理方面取得了巨大进展,以深度神经网络为代表的模型开始在法律智能判决上被广泛使用。基于Transformer的双向编码器表征法(Bidirectional Encoder Representations from Transformers,BERT)模型能够挖掘法律描述文本中双向上下文信息,利用BERT中自注意力机制完成了罪名预测、法律条款推荐、刑期预测多个司法智能审判任务。为了在长文本案情描述文本上获得更好的效果,进一步解决BERT模型输入文本的长度限制,对于过长的输入文本进行关键信息提取。在文本提取的过程中,充分利用前期训练的基于BERT智能审判模型,对于案情描述中句子的重要性进行评估,提取关键句子减少判断模型的输入长度。将精简后的案情描述文本再送入BERT模型进行司法智能审判学习。相比于直接输入原始案情描述文本的方法,基于文本提取处理后的法律描述在智能审判任务中能够取得更好的效果。 展开更多
关键词 法律智能审判 文本提取 多任务学习 双向编码器表征法 自然语言处理
下载PDF
基于BERT-Bi-LSTM-CRF模型的机场类中文航行通告要素实体识别
11
作者 郝宽公 董兵 +2 位作者 吴悦 彭自琛 罗创 《科学技术与工程》 北大核心 2024年第10期4182-4188,共7页
航行通告是民用航空情报领域的重要情报资料,针对中文航行通告专业名词较多、格式不统一及语义复杂等问题,提出了一种基于BERT-Bi-LSTM-CRF的实体识别模型,对航行通告E项内容中事件要素实体进行抽取。首先通过BERT(bidirectional encode... 航行通告是民用航空情报领域的重要情报资料,针对中文航行通告专业名词较多、格式不统一及语义复杂等问题,提出了一种基于BERT-Bi-LSTM-CRF的实体识别模型,对航行通告E项内容中事件要素实体进行抽取。首先通过BERT(bidirectional encoder representations from transforms)模型对处理后的向量进行预训练,捕捉丰富的语义特征,然后传送至双向长短期记忆网络(bidirectional long short-term memory,Bi-LSTM)模型对上下文特征进行提取,最后利用条件随机场(conditional random field,CRF)模型对最佳实体标签预测并输出。收集并整理机场类航行通告相关的原始语料,经过文本标注与数据预处理,形成了可用于实体识别实验的训练集、验证集和评价集数据。基于此数据与不同的实体识别模型进行对比实验,BERT-Bi-LSTM-CRF模型的准确率为89.68%、召回率为81.77%、F_(1)为85.54%,其中F 1相比现有模型得到有效提升,结果验证了该模型在机场类航行通告中要素实体识别的有效性。 展开更多
关键词 机场类航行通告 要素实体识别 双向转换编码器 双向长短期记忆网络 文本信息抽取
下载PDF
基于MCA-BERT的数学文本分类方法
12
作者 杨先凤 龚睿 李自强 《计算机工程与设计》 北大核心 2023年第8期2312-2319,共8页
为尽可能地提高数学文本分类的效果,通过构建数学文本数据集并对该数据集进行分析,提出增强文本实体信息的多通道注意力机制-Transformers的双向编码器表示(MCA-BERT)模型。通过Word2vec词向量的平均池化获得句子级的实体信息,通过注意... 为尽可能地提高数学文本分类的效果,通过构建数学文本数据集并对该数据集进行分析,提出增强文本实体信息的多通道注意力机制-Transformers的双向编码器表示(MCA-BERT)模型。通过Word2vec词向量的平均池化获得句子级的实体信息,通过注意力机制给不同词赋予不同权重,获得词语级的实体信息,将两类实体信息与BERT输出的上下文信息拼接,通过Softmax层得到分类结果。该方法在数学文本数据集上的F1值相比BERT单通道的方法提高了2.1个百分点。实验结果说明,该方法能够有效增强文本实体信息,获得更好的分类效果。 展开更多
关键词 数学文本分类 实体信息 注意力机制 多通道 双向编码器表示 词向量 分类器
下载PDF
基于BERT的施工安全事故文本命名实体识别方法 被引量:1
13
作者 孙文涵 王俊杰 《电视技术》 2023年第1期20-26,共7页
为解决传统施工安全管理中对事故报告信息分析效率低的问题,利用自然语言处理(Natural Language Processing,NLP)技术,提出基于双向编码器表示(Bidirectional Encoder Representations from Transformers,BERT)的施工安全事故文本命名... 为解决传统施工安全管理中对事故报告信息分析效率低的问题,利用自然语言处理(Natural Language Processing,NLP)技术,提出基于双向编码器表示(Bidirectional Encoder Representations from Transformers,BERT)的施工安全事故文本命名实体识别方法。以自建的施工安全事故领域实体标注语料数据集为研究对象,首先利用BERT预训练模型获取动态字向量,然后采用双向长短时记忆网络-注意力机制-条件随机场(BiLSTM-Attention-CRF)对前一层输出的语义编码进行序列标注和解码以获取最优文本标签序列。实验结果表明,该模型在自建数据集上的F1值分数为92.58%,较基准模型BiLSTM-CRF提升了4.19%;该方法对事故时间等5类实体识别F1值均可达到91%以上,验证了该方法对施工安全事故实体识别的有效性,说明模型可用于实际施工知识管理中并指导建筑安全管理的安全培训。 展开更多
关键词 双向编码器表示(BERT) 施工安全管理 命名实体识别 知识图谱 知识管理
下载PDF
基于跨度回归的中文事件触发词抽取
14
作者 赵宇豪 陈艳平 +1 位作者 黄瑞章 秦永彬 《应用科学学报》 CAS CSCD 北大核心 2023年第1期95-106,共12页
在中文事件触发词抽取任务中,基于词的模型会受到分词带来的错误,而基于字符的模型则难以捕获触发词的结构信息和上下文语义信息,为此提出了一种基于跨度回归的触发词抽取方法。该方法考虑到句子中特定长度的字符子序列(跨度)可能构成... 在中文事件触发词抽取任务中,基于词的模型会受到分词带来的错误,而基于字符的模型则难以捕获触发词的结构信息和上下文语义信息,为此提出了一种基于跨度回归的触发词抽取方法。该方法考虑到句子中特定长度的字符子序列(跨度)可能构成一个事件触发词,用基于Transformer的双向编码器的预训练语言模型获取句子的特征表示,进而生成触发词候选跨度;然后用一个分类器过滤低置信度的候选跨度,通过回归调整候选跨度的边界来准确定位触发词;最后对调整后的候选跨度进行分类得到抽取结果。在ACE2005中文数据集上的实验结果表明:基于跨度回归的方法对触发词识别任务的F1值为73.20%,对触发词分类任务的F1值为71.60%,优于现有模型;并与仅基于跨度的方法进行对比,验证了对跨度边界进行回归调整可以提高事件触发词检测的准确性。 展开更多
关键词 事件抽取 事件触发词 基于Transformer的双向编码器 特征表示 跨度表示 回归调整
下载PDF
基于BERT-CNN的Webshell流量检测系统设计与实现 被引量:2
15
作者 江魁 余志航 +1 位作者 陈小雷 李宇豪 《计算机应用》 CSCD 北大核心 2023年第S01期126-132,共7页
Webshell是一种网站后门程序,常被黑客用于入侵服务器后对服务器进行控制,给网站带来严重的安全隐患。针对以往基于流量的机器学习检测Webshell方法存在特征选择不全、向量化不准确、模型设计不合理导致的检测效果不佳问题,设计并实现... Webshell是一种网站后门程序,常被黑客用于入侵服务器后对服务器进行控制,给网站带来严重的安全隐患。针对以往基于流量的机器学习检测Webshell方法存在特征选择不全、向量化不准确、模型设计不合理导致的检测效果不佳问题,设计并实现了一种将基于变换器的双向编码器表示技术(BERT)与卷积神经网络(CNN)相结合的Webshell流量检测系统,通过分析超文本传输协议(HTTP)报文中各个字段信息,提取其中具有Webshell信息的特征字段,使用BERT模型对特征进行向量化编码,并结合一维CNN模型从不同空间维度检测特征建立分类模型,最后使用模型对流量数据进行检测调优。实验结果表明,与以往基于流量检测方法相比,该检测系统在准确率、召回率和F1值等性能指标上表现更好,分别达到99.84%、99.83%、99.84%。 展开更多
关键词 Webshell检测 深度学习 流量检测 基于变换器的双向编码器表示 卷积神经网络
下载PDF
融合注意力机制的电力集控安全隐患实体识别模型研究
16
作者 张滈辰 屈红军 +1 位作者 牛雪莹 耿琴兰 《自动化仪表》 CAS 2023年第10期55-59,64,共6页
针对电力集控安全隐患文本实体边界模糊、常用实体识别模型识别准确率低的问题,提出了一种融合注意力机制与基于Transformer的双向编码器表示(BERT)-双向长短时记忆(BiLSTM)-条件随机场(CRF)的电力集控安全隐患数据实体识别模型。首先,... 针对电力集控安全隐患文本实体边界模糊、常用实体识别模型识别准确率低的问题,提出了一种融合注意力机制与基于Transformer的双向编码器表示(BERT)-双向长短时记忆(BiLSTM)-条件随机场(CRF)的电力集控安全隐患数据实体识别模型。首先,利用BERT层将安全隐患文本编码表示为融合上下文语义的字位置和句位置的向量表示组,以减少实体识别误差积累。然后,提出了BiLSTM网络层挖掘电力集控隐患文本的语义特征并进行标签概率预测,在此基础上加入注意力机制增加重要信息的权重,提高重要信息对安全隐患语义信息的影响程度。最后,利用CRF层为标注结果进行综合打分,得到全局最优标签序列。在不同的电力安全隐患实体信息类别上的对比试验显示,所提模型的准确率为97.54%、召回率为96.47%、F值为97.13%,与传统算法相比总体效果提升了5%~21%。该结果证明了电力集控安全隐患实体识别模型的有效性。 展开更多
关键词 实体识别 注意力机制 基于Transformer的双向编码器表示 电力集控隐患 最优标签序列 双向长短时记忆网络 条件随机场
下载PDF
面向句义及句法的事件检测模型
17
作者 柏瑶 刘丹 +1 位作者 郭又铭 李美文 《太赫兹科学与电子信息学报》 2023年第12期1464-1475,共12页
事件句的句法结构有助于语义理解。针对中文领域的事件检测任务,本文设计了面向句义及句法的事件检测模型(BDD)以增强对事件句的理解能力。以基于来自变压器的双向编码器表示(BERT)的动态词向量为信息源,设计基于依存树的长短时记忆网... 事件句的句法结构有助于语义理解。针对中文领域的事件检测任务,本文设计了面向句义及句法的事件检测模型(BDD)以增强对事件句的理解能力。以基于来自变压器的双向编码器表示(BERT)的动态词向量为信息源,设计基于依存树的长短时记忆网络模型(D-T-LSTM)以融合学习句法结构及上下文语义,并加入基于依存向量的注意力机制强化对不同句法结构的区分度,在中文突发事件语料库(CEC)上的实验证明了本文模型的有效性,精确率、召回率、F_(1)值均靠前,且F_(1)值比基准模型提升了5.4%,召回率提升了0.4%。 展开更多
关键词 事件检测 来自变压器的双向编码器表示 基于依存树的长短时记忆网络模型 基于依存向量的注意力机制
下载PDF
基于BERT的远洋运输询盘命名实体识别方法 被引量:1
18
作者 苏鑫 《世界海运》 2023年第6期9-13,共5页
电子邮件是远洋运输业务往来的重要载体,研究如何高效地从询盘邮件中挖掘关键实体信息具有重要意义。本文提出一种基于BERT的远洋运输询盘命名实体识别方法,采用监督学习的方式,利用BERT预训练语言模型进行邮件文本信息的特征提取。实... 电子邮件是远洋运输业务往来的重要载体,研究如何高效地从询盘邮件中挖掘关键实体信息具有重要意义。本文提出一种基于BERT的远洋运输询盘命名实体识别方法,采用监督学习的方式,利用BERT预训练语言模型进行邮件文本信息的特征提取。实验结果表明,该方法能够有效解决远洋运输询盘邮件的信息抽取问题,实体识别的整体效果较好。 展开更多
关键词 远洋运输 询盘邮件 信息抽取 命名实体识别 双向编码器表示
下载PDF
基于BERT-BiLSTM-CRF的电力集控安全隐患数据处理
19
作者 张滈辰 屈红军 +1 位作者 牛雪莹 耿琴兰 《通信电源技术》 2023年第21期24-27,共4页
为了提高电力集控系统安全隐患数据处理的效果,提出一种基于来自变换器的双向编码器表示-双向长短期记忆网络-条件随机场(Bidirectional Encoder Representations from Transformers-Bidirectional Long Short Term Memory-Conditional ... 为了提高电力集控系统安全隐患数据处理的效果,提出一种基于来自变换器的双向编码器表示-双向长短期记忆网络-条件随机场(Bidirectional Encoder Representations from Transformers-Bidirectional Long Short Term Memory-Conditional Random Fields,BERT-BiLSTM-CRF)的电力集控安全隐患数据处理方法。构建电力集控隐患数据检测模型,应用改进长短时记忆网络(Long Short Term Memory,LSTM)来构建电力集控安全隐患数据修复网络,实现电力集控安全隐患数据处理。实验结果表明,采用所提方法能够更好地完成电力集控安全隐患数据检测与修复,应用效果较好。 展开更多
关键词 来自变换器的双向编码器表示(BERT) 双向长短期记忆网络(BiLSTM) 条件随机场(CRF) 电力集控系统 安全隐患数据检测 数据修复
下载PDF
融合字注释的文本分类模型 被引量:2
20
作者 杨先凤 赵家和 李自强 《计算机应用》 CSCD 北大核心 2022年第5期1317-1323,共7页
针对传统文本特征表示方法无法充分解决一词多义的问题,构建了一种融合字注释的文本分类模型。首先,借助现有中文字典,获取文本由字上下文选取的字典注释,并对其进行Transformer的双向编码器(BERT)编码来生成注释句向量;然后,将注释句... 针对传统文本特征表示方法无法充分解决一词多义的问题,构建了一种融合字注释的文本分类模型。首先,借助现有中文字典,获取文本由字上下文选取的字典注释,并对其进行Transformer的双向编码器(BERT)编码来生成注释句向量;然后,将注释句向量与字嵌入向量融合作为输入层,并用来丰富输入文本的特征信息;最后,通过双向门控循环单元(BiGRU)学习文本的特征信息,并引入注意力机制突出关键特征向量。在公开数据集THUCNews和新浪微博情感分类数据集上进行的文本分类的实验结果表明,融合BERT字注释的文本分类模型相较未引入字注释的文本分类模型在性能上有显著提高,且在所有文本分类的实验模型中,所提出的BERT字注释_BiGRU_Attention模型有最高的精确率和召回率,能反映整体性能的F1-Score则分别高达98.16%和96.52%。 展开更多
关键词 一词多义 字注释 基于Transformer的双向编码器 双向门控循环单元 注意力机制 文本分类
下载PDF
上一页 1 2 3 下一页 到第
使用帮助 返回顶部