期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
面向开源情报的信息抽取大语言模型
1
作者 赵勤博 王又辰 +3 位作者 陈荣 宋颖毅 栾真 田夫兰 《计算机工程与设计》 2024年第12期3772-3778,共7页
针对开源情报信息抽取过程依赖多类专用模型和抽取属性限制强等问题,基于一种GLM大语言模型进行指令微调和上下文学习提高信息抽取准确率,利用指令自动化生成方法对原始问题进行泛化,构建SFT数据集。开展多任务统一的微调学习常见抽取模... 针对开源情报信息抽取过程依赖多类专用模型和抽取属性限制强等问题,基于一种GLM大语言模型进行指令微调和上下文学习提高信息抽取准确率,利用指令自动化生成方法对原始问题进行泛化,构建SFT数据集。开展多任务统一的微调学习常见抽取模式,通过自动思维链扩充提示增强模型推理能力。实验结果表明,该方法在开源情报命名实体识别、关系抽取和事件抽取任务上,微调模型能满足不同场景下的抽取要求,具有较好的抽取效果。 展开更多
关键词 开源情报 大语言模型 信息抽取 指令自动化生成 指令微调 上下文学习 自动思维链
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部