期刊文献+
共找到11篇文章
< 1 >
每页显示 20 50 100
一种建立在GPT-2模型上的数据增强方法
1
作者 张小川 陈盼盼 +2 位作者 邢欣来 杨昌萌 滕达 《智能系统学报》 CSCD 北大核心 2024年第1期209-216,共8页
针对句子分类任务常面临着训练数据不足,而且文本语言具有离散性,在语义保留的条件下进行数据增强具有一定困难,语义一致性和多样性难以平衡的问题,本文提出一种惩罚生成式预训练语言模型的数据增强方法(punishing generative pre-train... 针对句子分类任务常面临着训练数据不足,而且文本语言具有离散性,在语义保留的条件下进行数据增强具有一定困难,语义一致性和多样性难以平衡的问题,本文提出一种惩罚生成式预训练语言模型的数据增强方法(punishing generative pre-trained transformer for data augmentation,PunishGPT-DA)。设计了惩罚项和超参数α,与负对数似然损失函数共同作用微调GPT-2(generative pre-training 2.0),鼓励模型关注那些预测概率较小但仍然合理的输出;使用基于双向编码器表征模型(bidirectional encoder representation from transformers,BERT)的过滤器过滤语义偏差较大的生成样本。本文方法实现了对训练集16倍扩充,与GPT-2相比,在意图识别、问题分类以及情感分析3个任务上的准确率分别提升了1.1%、4.9%和8.7%。实验结果表明,本文提出的方法能够同时有效地控制一致性和多样性需求,提升下游任务模型的训练性能。 展开更多
关键词 自然语言处理 人工智能 数据增强 句子分类 少样本 序列到序列 生成式预训练语言模型 双向编码表征模型
下载PDF
基于深度学习的教材德目教育文本分类方法
2
作者 陈浩淼 陈军华 《上海师范大学学报(自然科学版中英文)》 2024年第2期172-180,共9页
对上海中小学教材德目教育文本分类进行研究,提出了基于转换器的双向编码表征(BERT)预训练模型、双向长短期记忆(BiLSTM)网络和注意力机制的模型IoMET_BBA.通过合成少数类过采样技术(SMOTE)与探索性数据分析(EDA)技术进行数据增强,使用B... 对上海中小学教材德目教育文本分类进行研究,提出了基于转换器的双向编码表征(BERT)预训练模型、双向长短期记忆(BiLSTM)网络和注意力机制的模型IoMET_BBA.通过合成少数类过采样技术(SMOTE)与探索性数据分析(EDA)技术进行数据增强,使用BERT模型生成富含语境信息的语义向量,通过BiLSTM提取特征,并结合注意力机制来获得词语权重信息,通过全连接层进行分类.对比实验的结果表明,IoMET_BBA的F1度量值达到了86.14%,优于其他模型,可以精确地评估教材德目教育文本. 展开更多
关键词 德目指标 中文文本分类 基于转换器的双向编码表征(BERT)模型 双向长短期记忆(BiLSTM)网络 注意力机制
下载PDF
面向上下文注意力联合学习网络的方面级情感分类模型 被引量:11
3
作者 杨玉亭 冯林 +1 位作者 代磊超 苏菡 《模式识别与人工智能》 EI CSCD 北大核心 2020年第8期753-765,共13页
针对现有的方面级情感分类模型存在感知方面词能力较弱、泛化能力较差等问题,文中提出面向上下文注意力联合学习网络的方面级情感分类模型(CAJLN).首先,利用双向Transformer的表征编码器(BERT)模型作为编码器,将文本句子预处理成句子、... 针对现有的方面级情感分类模型存在感知方面词能力较弱、泛化能力较差等问题,文中提出面向上下文注意力联合学习网络的方面级情感分类模型(CAJLN).首先,利用双向Transformer的表征编码器(BERT)模型作为编码器,将文本句子预处理成句子、句子对和方面词级输入序列,分别经过BERT单句和句子对分类模型,进行上下文、方面词级和句子对隐藏特征提取.再基于上下文和方面词级隐藏特征,建立上下文和方面词的多种注意力机制,获取方面特定的上下文感知表示.然后,对句子对隐藏特征和方面特定的上下文感知表示进行联合学习.采用Xavier正态分布对权重进行初始化,确保反向传播时参数持续更新,使CAJLN在训练过程中可以学习有用信息.在多个数据集上的仿真实验表明,CAJLN可有效提升短文本情感分类性能. 展开更多
关键词 方面级情感分类 双向Transformer的表征编码器(BERT)模型 注意力机制 联合学习
下载PDF
融合多特征BERT模型的中文实体关系抽取 被引量:7
4
作者 谢腾 杨俊安 刘辉 《计算机系统应用》 2021年第5期253-261,共9页
关系抽取是构建知识图谱的一项核心技术.由于中文具有复杂的语法和句式,同时现有的神经网络模型提取特征有限以及语义表征能力较差,从而影响中文实体关系抽取的性能.文章提出了一种融合多特征的BERT预训练模型的实体关系抽取算法.首先... 关系抽取是构建知识图谱的一项核心技术.由于中文具有复杂的语法和句式,同时现有的神经网络模型提取特征有限以及语义表征能力较差,从而影响中文实体关系抽取的性能.文章提出了一种融合多特征的BERT预训练模型的实体关系抽取算法.首先对语料进行预处理,提取关键词、实体对信息和实体类型特征并进行融合,以此来强化BERT模型的语义学习能力,极大限度地减少了语义信息特征的丢失,最后通过Softmax分类器进行关系分类.实验结果表明,文章模型优于现有的神经网络模型.在人工标注的中文数据集上本文模型取得了97.50%的F1值. 展开更多
关键词 实体关系抽取 双向编码表征模型 词向量 外部特征 特征融合
下载PDF
基于BERT提示的矿产资源管理规则检测方法研究
5
作者 胡容波 张广发 +1 位作者 王雅雯 方金云 《高技术通讯》 CAS 2023年第11期1136-1145,共10页
政策文本中管理规则检测是一个新兴的自然语言处理任务,在政策冲突检测、政策智能检索、事项合规性检查以及政务系统需求工程等方面具有重要应用价值。本文以矿产资源管理规则检测为研究目标,提出基于转换器的双向编码表征(BERT)提示的... 政策文本中管理规则检测是一个新兴的自然语言处理任务,在政策冲突检测、政策智能检索、事项合规性检查以及政务系统需求工程等方面具有重要应用价值。本文以矿产资源管理规则检测为研究目标,提出基于转换器的双向编码表征(BERT)提示的政策文本管理规则检测方法。该方法通过构建融入管理规则信息、带有[MASK]标记的提示模板,可以充分发挥掩码语言模型的自编码优势,有效激发BERT模型提取与管理规则相关的文本特征,增加模型稳定性;提出基于BERT模型进行管理规则检测的新应用模式,放弃使用[CLS]隐向量而采用[MASK]隐向量进行分类预测;在矿产资源管理规则数据集上的实验结果表明,该方法的准确率、宏平均F_(1)值、加权平均F_(1)值均优于基线方法,在公开数据集上的实验结果也表明了该方法的有效性。 展开更多
关键词 矿产资源 管理规则 文本分类 基于转换器的双向编码表征(BERT) 提示学习
下载PDF
基于对比学习和预训练模型的临床诊断标准化
6
作者 刘莹 崔丙剑 +1 位作者 曹琉 程龙龙 《华中科技大学学报(自然科学版)》 EI CAS CSCD 北大核心 2024年第5期23-28,共6页
针对临床诊断标准化任务中存在的标准诊断词库规模大、文本相关性不显著且标准词个数不确定的问题,提出一种基于对比学习和预训练模型的临床诊断标准化方法.先用无监督和有监督相结合的方法对基于简单对比学习的句子嵌入(SimCSE)模型进... 针对临床诊断标准化任务中存在的标准诊断词库规模大、文本相关性不显著且标准词个数不确定的问题,提出一种基于对比学习和预训练模型的临床诊断标准化方法.先用无监督和有监督相结合的方法对基于简单对比学习的句子嵌入(SimCSE)模型进行训练,并利用得到的模型从标准库中召回候选标准词,再利用基于转换器的双向编码表征(BERT)进行候选词重排序和标准词个数分类,最终得到标准化结果.实验结果表明:基于无监督和有监督相结合的SimCSE方法的召回率为86.76%,显著优于其他方法;在重排序和标准词个数分类任务中,相比于其他模型,BERT在多个指标上有明显提升;该方法在测试集上进行标准词预测的F1值达到72.54%,在临床诊断标准化中具有较好的表现. 展开更多
关键词 临床诊断标准化 对比学习 预训练模型 基于简单对比学习的句子嵌入(SimCSE) 基于转换器的双向编码表征(BERT)
原文传递
融合汉字字形信息的文本关系抽取
7
作者 覃俊 廖立婷 +2 位作者 刘晶 叶正 刘璐 《中南民族大学学报(自然科学版)》 CAS 北大核心 2022年第2期208-214,共7页
关系抽取任务旨在从文本中抽取实体对之间的关系,是当前自然语言处理领域的热门方向之一.由于中文具有复杂的句式和语法,导致现有的神经网络提取的特征以及语义表示能力较差,从而影响中文关系抽取的性能.汉字是象形文字,其字形结构在一... 关系抽取任务旨在从文本中抽取实体对之间的关系,是当前自然语言处理领域的热门方向之一.由于中文具有复杂的句式和语法,导致现有的神经网络提取的特征以及语义表示能力较差,从而影响中文关系抽取的性能.汉字是象形文字,其字形结构在一定程度上隐含了字义,为此提出了包含字形级别实体表示的BERT_BIGRU_Glyph模型.模型中选用基于转换器的双向编码表征(BERT)为预训练模型、双向门控循环单元(BI-GRU)获取句子上下文表示.实体由字级表示和实体字形级表示共同构成,在实体字形表示中嵌入了BERT、BERT_CNN和BERT_BI-GRU三种提取字形特征的策略来丰富实体语义信息.实验结果表明:所提出的模型在实体字形相似的关系抽取中性能更优. 展开更多
关键词 关系抽取 基于转换器的双向编码表征 双向门控循环单元 字形嵌入
下载PDF
需求驱动的云平台产品关键设计特征识别方法 被引量:4
8
作者 苏兆婧 余隋怀 +3 位作者 初建杰 于明玖 宫静 黄悦欣 《计算机集成制造系统》 EI CSCD 北大核心 2021年第12期3604-3613,共10页
为完善云服务平台产品设计知识发现系统,同时进一步提升需求与服务的匹配效率,提出一种基于转换器的双向编码表征(BERT)和随机Lasso的产品关键设计特征识别方法。首先,实验采用真实产品用户反馈数据集并对其进行人工标注,以BERT预训练... 为完善云服务平台产品设计知识发现系统,同时进一步提升需求与服务的匹配效率,提出一种基于转换器的双向编码表征(BERT)和随机Lasso的产品关键设计特征识别方法。首先,实验采用真实产品用户反馈数据集并对其进行人工标注,以BERT预训练语言模型为基础,建立输出层以训练设计领域命名实体识别模型,实现对显性设计特征的自动识别。实验表明,所提方法可以实现较好的性能,精确率、召回率、F1分数分别为90.55%、97.16%和93.68%。同时,提出一种知识迁移思想,在当前大数据环境下,利用随机Lasso算法挖掘其中蕴含的关键设计特征并加以重用,实现了对隐性设计特征的精确定位。 展开更多
关键词 工业设计 用户需求 基于转换器的双向编码表征 命名实体识别 随机Lasso 产品设计
下载PDF
基于BERT-GCN-ResNet的文献摘要自动分类方法 被引量:1
9
作者 郭羽 林丽媛 刘玉良 《天津科技大学学报》 CAS 2022年第2期51-56,共6页
为了提升文献摘要自动分类性能,提高分类准确率,有效学习词与文档、文档与文档之间的关联性,本文提出一种基于BERT-GCN-ResNet的文献摘要分类方法.该方法采用转换器的双向编码器表示模型(bidirectional encoder representation from tra... 为了提升文献摘要自动分类性能,提高分类准确率,有效学习词与文档、文档与文档之间的关联性,本文提出一种基于BERT-GCN-ResNet的文献摘要分类方法.该方法采用转换器的双向编码器表示模型(bidirectional encoder representation from transformers,BERT)得到待分类短文本的词向量初始特征,进而构建边和节点特征;将其输入图卷积神经网络(graph convolutional networks,GCN),并在图卷积层之间加入残差网络(residual network,ResNet)模块;最后将利用图卷积层和残差网络层得到的短文本表示输出至softmax,得到最终的分类结果.将该方法在4种不同的公开文本分类数据集上进行实验,模型准确率最高达97.01%,优于基准模型.同时,在本文构建的基于短文本文献摘要的Abstext数据集上进行验证,分类准确率为96.85%,表明该模型泛化能力较好,能够提高文献自动分类的准确率. 展开更多
关键词 图卷积神经网络 转换器的双向编码器表示模型 残差网络 文献自动分类 预训练模型
下载PDF
基于BERT-BiLSTM-CRF的法律案件实体智能识别方法 被引量:17
10
作者 郭知鑫 邓小龙 《北京邮电大学学报》 EI CAS CSCD 北大核心 2021年第4期129-134,共6页
在智能法务系统应用中,人工智能自然语言处理相关技术常采用静态特征向量模型,算法效率低,精度偏差较大。为了对法律文本中的案件实体进行智能识别,提高案件的处理效率,针对动态字向量模型提出以基于转换器的双向编码表征模型作为输入... 在智能法务系统应用中,人工智能自然语言处理相关技术常采用静态特征向量模型,算法效率低,精度偏差较大。为了对法律文本中的案件实体进行智能识别,提高案件的处理效率,针对动态字向量模型提出以基于转换器的双向编码表征模型作为输入层的识别方法。在其基础上通过融合双向长短期记忆网络和条件随机场模型,构建了高精度的法律案件实体智能识别方法,并通过实验验证了模型的性能。 展开更多
关键词 自然语言处理 智能法务 基于转换器的双向编码表征模型
原文传递
基于数据增强和字词融合特征的实体槽位识别 被引量:3
11
作者 刘振元 许明阳 王承涛 《华中科技大学学报(自然科学版)》 EI CAS CSCD 北大核心 2022年第11期101-106,共6页
针对传统的基于字级表示的实体槽位识别模型无法很好利用词语信息,以及信息技术(IT)运维领域缺少足够数量公开数据集的问题,提出一种基于BERT_Word2vec_BiLSTM_CRF模型的实体槽位识别方法,并通过数据增强对模型的训练数据集进行扩展.该... 针对传统的基于字级表示的实体槽位识别模型无法很好利用词语信息,以及信息技术(IT)运维领域缺少足够数量公开数据集的问题,提出一种基于BERT_Word2vec_BiLSTM_CRF模型的实体槽位识别方法,并通过数据增强对模型的训练数据集进行扩展.该模型将基于转换器的双向编码表征(BERT)模型得到的字向量表示和Word2vec得到的词向量表示进行融合,通过双向长短时记忆(BiLSTM)网络进行上下文编码,通过条件随机场(CRF)进行解码,得到最终的序列标注结果.通过在某企业提供的数据集上进行实验,结果表明:融合词级特征可以在BERT预训练模型的基础上进一步提升识别性能,F_(1)值达到了92.33%. 展开更多
关键词 IT运维 实体槽位识别 字词融合 数据增强 基于转换器的双向编码表征(BERT)
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部