期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
基于深度学习的招聘信息文本分类研究 被引量:2
1
作者 任济洲 《湖北文理学院学报》 2023年第11期21-27,共7页
运用深度学习方法实现招聘信息的自动分类,构造了Word2Vec-TextCNN、Word2Vec-TextLSTM、BERT-TextCNN、BERT-TextLSTM模型及基于CNN、BiLSTM和多层感知机的BERT-CBM混合模型。讨论了Word2Vec和BERT(Bidirectional Encoder Representati... 运用深度学习方法实现招聘信息的自动分类,构造了Word2Vec-TextCNN、Word2Vec-TextLSTM、BERT-TextCNN、BERT-TextLSTM模型及基于CNN、BiLSTM和多层感知机的BERT-CBM混合模型。讨论了Word2Vec和BERT(Bidirectional Encoder Representations from Transformers)两种词嵌入技术,以及卷积神经网络CNN(Convolutional Neural Network)和长短期记忆单元LSTM(Long Short-Term Memory)的应用:利用词嵌入技术对招聘信息文本向量化,由CNN或LSTM进一步提取文本特征,经由全连接层完成非线性映射,采用Softmax分类器输出分类结果。实验表明:基于BERT的深度学习模型在职业文本分类任务上具有较好性能,且BERT-CBM表现较优。本研究旨在为招聘信息文本分类提供新的解决方案,讨论BERT-CBM混合模型在文本分类中的关键作用。 展开更多
关键词 深度学习 文本分类 卷积神经网络 长短期记忆单元 词向量
下载PDF
基于注意力机制和CNN-BiLSTM模型的在线协作讨论交互文本自动分类 被引量:1
2
作者 李淑红 邓明明 +1 位作者 孙社兵 任济洲 《现代信息科技》 2023年第13期26-31,38,共7页
针对当前的在线协作讨论交互文本分类仅采用深度学习方法时,存在无法充分获取上下文语义关联以及忽略关键特征词,造成分类结果准确率下降的问题,文中提出一种结合注意力机制的深度学习网络模型—CNNBiLSTM-Attention,进一步强化文本的... 针对当前的在线协作讨论交互文本分类仅采用深度学习方法时,存在无法充分获取上下文语义关联以及忽略关键特征词,造成分类结果准确率下降的问题,文中提出一种结合注意力机制的深度学习网络模型—CNNBiLSTM-Attention,进一步强化文本的语义特征。利用该模型对在线协作讨论活动中产生的12000条交互文本进行分类,分类结果表明,CNN-BiLSTM-Attention的分类准确率整体上可达到82.40%,有效提升了文本分类的效果。 展开更多
关键词 深度学习 卷积神经网络 长短时记忆网络 注意力机制
下载PDF
广义SIMON类轮函数的密码学性质研究
3
作者 卢健伟 任济洲 关杰 《山东大学学报(理学版)》 CAS CSCD 北大核心 2023年第9期51-58,共8页
在SIMON类非线性函数的基础上进行扩展,得到一种广义的非线性函数F^(n)_(abcd)(X),结构为(x<<<a)&(x<<<b)⊕(x<<<c)&(x<<<d)并分析其差分和线性等密码学性质。给出差分矩阵的秩、输出差分... 在SIMON类非线性函数的基础上进行扩展,得到一种广义的非线性函数F^(n)_(abcd)(X),结构为(x<<<a)&(x<<<b)⊕(x<<<c)&(x<<<d)并分析其差分和线性等密码学性质。给出差分矩阵的秩、输出差分与差分概率之间的对应关系;给出差分概率的取值为0或1/2r,其中r∈[0,n-1];证明当输出差分β=0时差分概率非0;给出特殊移位参数选取下,差分概率取到1/2时差分对应的结构和计数公式。利用不相交化算法,将相关优势取值问题转化为不相交二次型中二次项的个数计算问题,给出相关优势的取值范围。本文的结论为轻量级非线性函数的构造提供一种新方法。 展开更多
关键词 SIMON算法 非线性函数 循环移位 差分性质 线性性质
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部