期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于预训练Transformer语言模型的源代码剽窃检测研究
1
作者
钱亮宏
王福德
孙晓海
《吉林大学学报(信息科学版)》
CAS
2024年第4期747-753,共7页
为解决源代码剽窃检测的问题,以及针对现有方法需要大量训练数据且受限于特定语言的不足,提出了一种基于预训练Transformer语言模型的源代码剽窃检测方法,其结合了词嵌入,相似度计算和分类模型。该方法支持多种编程语言,不需要任何标记...
为解决源代码剽窃检测的问题,以及针对现有方法需要大量训练数据且受限于特定语言的不足,提出了一种基于预训练Transformer语言模型的源代码剽窃检测方法,其结合了词嵌入,相似度计算和分类模型。该方法支持多种编程语言,不需要任何标记为剽窃的训练样本,即可达到较好的检测性能。实验结果表明,该方法在多个公开数据集上取得了先进的检测效果,F1值接近。同时,对特定的能获取到较少标记为剽窃训练样本的场景,还提出了一种结合有监督学习分类模型的方法,进一步提升了检测效果。该方法能广泛应用于缺乏训练数据、计算资源有限以及语言多样的源代码剽窃检测场景。
展开更多
关键词
源代码剽窃检测
TRANSFORMER
模型
预训练模型
机器学习
深度学习
下载PDF
职称材料
题名
基于预训练Transformer语言模型的源代码剽窃检测研究
1
作者
钱亮宏
王福德
孙晓海
机构
益数
软件
科技
(
上海
)
有限公司
数据
科学部
吉林海诚
科技
有限公司
技术部
吉林农业大学智慧农业研究院
出处
《吉林大学学报(信息科学版)》
CAS
2024年第4期747-753,共7页
基金
吉林省教育厅产业化培育基金资助项目(JJKH20240274CY)。
文摘
为解决源代码剽窃检测的问题,以及针对现有方法需要大量训练数据且受限于特定语言的不足,提出了一种基于预训练Transformer语言模型的源代码剽窃检测方法,其结合了词嵌入,相似度计算和分类模型。该方法支持多种编程语言,不需要任何标记为剽窃的训练样本,即可达到较好的检测性能。实验结果表明,该方法在多个公开数据集上取得了先进的检测效果,F1值接近。同时,对特定的能获取到较少标记为剽窃训练样本的场景,还提出了一种结合有监督学习分类模型的方法,进一步提升了检测效果。该方法能广泛应用于缺乏训练数据、计算资源有限以及语言多样的源代码剽窃检测场景。
关键词
源代码剽窃检测
TRANSFORMER
模型
预训练模型
机器学习
深度学习
Keywords
source code plagiarism detection
Transformer model
pre-trained model
machine learning
deep learning
分类号
TP181 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于预训练Transformer语言模型的源代码剽窃检测研究
钱亮宏
王福德
孙晓海
《吉林大学学报(信息科学版)》
CAS
2024
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部