期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
3
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于层级特征和DPCNN的文本数据治理方法
1
作者
丁行硕
鞠通
《青岛远洋船员职业学院学报》
2023年第3期18-20,53,共4页
大规模文本的数据划分是数据治理中的关键问题,而传统的中文文档建模方法容易忽视上下文语义关系和文档层级结构。针对以上问题提出一种基于层级特征和DPCNN的文本数据治理方法。该方法首先通过BERT模型抽取文本的层次特征信息,然后将...
大规模文本的数据划分是数据治理中的关键问题,而传统的中文文档建模方法容易忽视上下文语义关系和文档层级结构。针对以上问题提出一种基于层级特征和DPCNN的文本数据治理方法。该方法首先通过BERT模型抽取文本的层次特征信息,然后将结合全文信息的向量传入DPCNN模型中;经过金字塔型池化层后,最终通过全连接层进行数据划分。该方法能够有效提高特征稀疏文本数据的预测准确率。
展开更多
关键词
数据治理
层级特征
BERT
DPCNN
下载PDF
职称材料
基于标签分层延深建模的企业画像构建方法
被引量:
5
2
作者
丁行硕
李翔
谢乾
《计算机应用》
CSCD
北大核心
2022年第4期1170-1177,共8页
标签建模是标签体系建设和画像构建的基本任务。而传统标签建模方法存在模糊标签处理难、标签提取不合理,以及无法有效融合多模实体和多维关系等问题。针对以上问题提出了一种基于标签分层延深建模的企业画像构建方法EPLLD。首先,通过...
标签建模是标签体系建设和画像构建的基本任务。而传统标签建模方法存在模糊标签处理难、标签提取不合理,以及无法有效融合多模实体和多维关系等问题。针对以上问题提出了一种基于标签分层延深建模的企业画像构建方法EPLLD。首先,通过多源信息融合获取多特征信息,并对企业模糊标签(如批发、零售等行业中的不能完整概括企业特点的标签)进行统计和筛选;然后,建立专业领域词库进行特征拓展,并结合BERT语言模型进行多特征提取;其次,利用双向长短期记忆(BiLSTM)网络获取模糊标签延深结果;最后,通过TF-IDF、TextRank、隐含狄利克雷分布(LDA)模型提取关键词,从而实现标签的分层延深建模。在同一企业数据集上进行实验分析,结果表明在模糊标签延深任务中EPLLD的精确率达到91.11%,高于BiLSTM+Attention、BERT+Deep CNN等8种标签处理方法。
展开更多
关键词
企业画像
标签建模
多源信息融合
模糊标签
特征提取
下载PDF
职称材料
一种基于WSD层级记忆网络建模的文档表示方法
3
作者
张柯文
李翔
+4 位作者
朱全银
方强强
马甲林
成洁怡
丁行硕
《淮阴工学院学报》
CAS
2020年第3期47-53,共7页
针对传统自然语言处理中基于中文文档建模方法忽视了上下文语义关系和文档层级结构的问题,提出一种基于WSD层级记忆网络建模的文档表示方法,以充分利用词句级联的层次关系,增强文档建模内部的语义联系,实现文档分类。该方法首先通过Ber...
针对传统自然语言处理中基于中文文档建模方法忽视了上下文语义关系和文档层级结构的问题,提出一种基于WSD层级记忆网络建模的文档表示方法,以充分利用词句级联的层次关系,增强文档建模内部的语义联系,实现文档分类。该方法首先通过Bert模型进行词到句的表示;然后利用双向长短时记忆网络结合注意力机制输出每个时刻句子信息的重要程度;最后通过全连接层获得连续的文档模型进行分类预测。对THUCNEWS、CHEM&ENGNEWS两个数据集进行仿真实验,结果表明本方法相比传统方法准确性提高7.06%~18.31%,有效地提高了文档分类的预测精度,为文档分类提供借鉴。
展开更多
关键词
自然语言处理
文档建模
层级记忆网络
Attention机制
下载PDF
职称材料
题名
基于层级特征和DPCNN的文本数据治理方法
1
作者
丁行硕
鞠通
机构
青岛远洋船员职业学院数字信息中心
出处
《青岛远洋船员职业学院学报》
2023年第3期18-20,53,共4页
基金
青岛远洋船员职业学院科研项目:“高职院校航海类专业技能型人才工匠精神培育研究”(2023-R-004)
山东省职业教育教学改革研究项目:“AI时代职业学校技能型人才工匠精神培育研究与实践”(2022286)。
文摘
大规模文本的数据划分是数据治理中的关键问题,而传统的中文文档建模方法容易忽视上下文语义关系和文档层级结构。针对以上问题提出一种基于层级特征和DPCNN的文本数据治理方法。该方法首先通过BERT模型抽取文本的层次特征信息,然后将结合全文信息的向量传入DPCNN模型中;经过金字塔型池化层后,最终通过全连接层进行数据划分。该方法能够有效提高特征稀疏文本数据的预测准确率。
关键词
数据治理
层级特征
BERT
DPCNN
Keywords
data governance
hierarchical characteristics
BERT
DPCNN
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
基于标签分层延深建模的企业画像构建方法
被引量:
5
2
作者
丁行硕
李翔
谢乾
机构
淮阴工学院计算机与软件工程学院
江苏卓易信息科技股份有限公司
南京百敖软件有限公司
出处
《计算机应用》
CSCD
北大核心
2022年第4期1170-1177,共8页
基金
国家自然科学基金资助项目(71874067)
江苏省产学研合作项目(BY2020067)
淮阴工学院研究生科技创新计划项目(HGYK202120)。
文摘
标签建模是标签体系建设和画像构建的基本任务。而传统标签建模方法存在模糊标签处理难、标签提取不合理,以及无法有效融合多模实体和多维关系等问题。针对以上问题提出了一种基于标签分层延深建模的企业画像构建方法EPLLD。首先,通过多源信息融合获取多特征信息,并对企业模糊标签(如批发、零售等行业中的不能完整概括企业特点的标签)进行统计和筛选;然后,建立专业领域词库进行特征拓展,并结合BERT语言模型进行多特征提取;其次,利用双向长短期记忆(BiLSTM)网络获取模糊标签延深结果;最后,通过TF-IDF、TextRank、隐含狄利克雷分布(LDA)模型提取关键词,从而实现标签的分层延深建模。在同一企业数据集上进行实验分析,结果表明在模糊标签延深任务中EPLLD的精确率达到91.11%,高于BiLSTM+Attention、BERT+Deep CNN等8种标签处理方法。
关键词
企业画像
标签建模
多源信息融合
模糊标签
特征提取
Keywords
enterprise portrait
label modeling
multi-source information fusion
fuzzy label
feature extraction
分类号
TP391.1 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
一种基于WSD层级记忆网络建模的文档表示方法
3
作者
张柯文
李翔
朱全银
方强强
马甲林
成洁怡
丁行硕
机构
淮阴工学院计算机与软件工程学院
出处
《淮阴工学院学报》
CAS
2020年第3期47-53,共7页
基金
江苏省高校重大研究项目(18KJA520001)
江苏省六大人才高峰项目(XYDXXJS-011)
江苏省333工程资助项目(BRA2016454)。
文摘
针对传统自然语言处理中基于中文文档建模方法忽视了上下文语义关系和文档层级结构的问题,提出一种基于WSD层级记忆网络建模的文档表示方法,以充分利用词句级联的层次关系,增强文档建模内部的语义联系,实现文档分类。该方法首先通过Bert模型进行词到句的表示;然后利用双向长短时记忆网络结合注意力机制输出每个时刻句子信息的重要程度;最后通过全连接层获得连续的文档模型进行分类预测。对THUCNEWS、CHEM&ENGNEWS两个数据集进行仿真实验,结果表明本方法相比传统方法准确性提高7.06%~18.31%,有效地提高了文档分类的预测精度,为文档分类提供借鉴。
关键词
自然语言处理
文档建模
层级记忆网络
Attention机制
Keywords
Natural language processing
document modeling
hierarchical memory network
attention mechanism
分类号
TP391.1 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于层级特征和DPCNN的文本数据治理方法
丁行硕
鞠通
《青岛远洋船员职业学院学报》
2023
0
下载PDF
职称材料
2
基于标签分层延深建模的企业画像构建方法
丁行硕
李翔
谢乾
《计算机应用》
CSCD
北大核心
2022
5
下载PDF
职称材料
3
一种基于WSD层级记忆网络建模的文档表示方法
张柯文
李翔
朱全银
方强强
马甲林
成洁怡
丁行硕
《淮阴工学院学报》
CAS
2020
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部