摘要
本文主要探索了GPT-2模型在学习文言文特征方面的表现,主要以小数据集的文言文样本对GPT-2模型进行了训练、测试,并与LSTM、Sequence to sequence等其它方法生成的文言文进行了比较研究。结果表明构建四种不同模型,采用两种不同的生成方法进行样本生成,将所生成的样本进行随机选取,不同模型不同生成方法各保存两个样本,将样本保存并归类。生成样本评价表明GPT-2模型具有优越性。
出处
《电子技术与软件工程》
2020年第3期166-167,共2页
ELECTRONIC TECHNOLOGY & SOFTWARE ENGINEERING
基金
中国传媒大学科研项目的研究成果之一,由中国传媒大学中央高校基本科研业务费专项资金资助(项目编号:CUC2019B014)。