-
题名基于提示学习增强BERT的理解能力
- 1
-
-
作者
陈亚当
杨刚
王铎霖
余文斌
-
机构
南京信息工程大学计算机学院
南京信息工程大学数字取证教育部工程研究中心
-
出处
《信息技术》
2024年第6期87-93,共7页
-
基金
国家自然科学基金(61802197)。
-
文摘
提示学习旨在利用提示模板减小语言模型的预训练任务和下游任务间的差距。其难点在于提示模板的设计,为此,文中在构造提示模板的过程中,提出一个通过自动搜索离散提示对连续提示优化的新方法。其中,自动搜索提示基于双向Transformer编码器(Bidirectional Encoder Representation from Transformers, BERT)的预训练任务掩码语言模型训练,连续提示优化是训练自动搜索输出的离散提示在连续空间内的映射张量,根据损失函数对提示模板进行训练。实验表明,在公共基准SuperGLUE中,基于提示学习的BERT相比于原始的BERT模型在准确率和F1值上均有显著的提升。
-
关键词
提示学习
双向Transformer编码器
自然语言处理
连续提示优化
掩码语言模型
-
Keywords
prompt learning
Bidirectional Encoder Representation from Transformers
natural language processing
continuous prompt optimization
mask language model
-
分类号
TP391.1
[自动化与计算机技术—计算机应用技术]
-