期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
InstructGPT在命名实体识别任务中的表现和挑战
1
作者
孙瑜
颜航
+3 位作者
邱锡鹏
王定
牟小峰
黄萱菁
《中文信息学报》
CSCD
北大核心
2024年第1期74-85,共12页
当前,关于大规模语言模型,例如,InstructGPT的研究主要聚焦在自由形式生成任务上,而忽略了在结构化抽取任务上的探索。为了让未来的工作在结构化抽取任务上有一个全面的认知,该文在零样本和少样本设定下,全面分析了InstructGPT在基础的...
当前,关于大规模语言模型,例如,InstructGPT的研究主要聚焦在自由形式生成任务上,而忽略了在结构化抽取任务上的探索。为了让未来的工作在结构化抽取任务上有一个全面的认知,该文在零样本和少样本设定下,全面分析了InstructGPT在基础的结构化抽取任务,命名实体识别上的表现。为了让结论更加可靠,该文的实验同时包含了生物医学领域和通用领域的常规和嵌套数据集。实验结果表明,InstructGPT在零样本学习上的性能只能达到微调小规模语言模型的11%~56%,增加少量样本也最多只能提升至72%。为了探究InstructGPT在命名实体识别上表现性能不佳的原因,该文通过分析模型的输出,发现接近50%的句子都存在无效生成的问题。另外,由于无效生成会同时导致“虚假错误预测”和“虚假正确预测”,解决生成无效问题并不能保证性能的提升。此外,InstructGPT抽取嵌套实体的能力还是有待提高,抽取嵌套实体的比例也偏低。因此,用InstructGPT解决命名实体识别任务,除了要保证生成的有效性,还需要更加深入地研究才能找到行之有效的方法。
展开更多
关键词
大规模语言模型
命名实体识别
上下文学习
思维链
下载PDF
职称材料
深度学习中的模型压缩技术
2
作者
陈东
刘宁
《人工智能》
2023年第3期40-51,共12页
随着深度学习的快速发展,深度神经网络模型在计算机视觉、自然语言处理等多个领域大放异彩,但性能变强的同时,也伴随着模型规模的快速增长。应用大规模模型往往需要强大的计算力和足够的存储空间。为了使深度模型能够在资源受限的条件...
随着深度学习的快速发展,深度神经网络模型在计算机视觉、自然语言处理等多个领域大放异彩,但性能变强的同时,也伴随着模型规模的快速增长。应用大规模模型往往需要强大的计算力和足够的存储空间。为了使深度模型能够在资源受限的条件下高效运行,模型压缩技术应运而生。本文介绍了深度学习中模型压缩技术的相关背景,在此基础上简要介绍了一些代表性的模型压缩技术,包括网络剪枝、知识蒸馏、模型量化,以及神经结构搜索,并展望模型压缩技术在未来的发展前景。
展开更多
关键词
深度学习
模型压缩
模型加速
深度神经网络
下载PDF
职称材料
题名
InstructGPT在命名实体识别任务中的表现和挑战
1
作者
孙瑜
颜航
邱锡鹏
王定
牟小峰
黄萱菁
机构
复旦大学计算机科学技术学院
美的集团ai创新中心
出处
《中文信息学报》
CSCD
北大核心
2024年第1期74-85,共12页
基金
国家自然科学基金(62022027)
国家重点研究与发展计划(2022CSJGG0801)。
文摘
当前,关于大规模语言模型,例如,InstructGPT的研究主要聚焦在自由形式生成任务上,而忽略了在结构化抽取任务上的探索。为了让未来的工作在结构化抽取任务上有一个全面的认知,该文在零样本和少样本设定下,全面分析了InstructGPT在基础的结构化抽取任务,命名实体识别上的表现。为了让结论更加可靠,该文的实验同时包含了生物医学领域和通用领域的常规和嵌套数据集。实验结果表明,InstructGPT在零样本学习上的性能只能达到微调小规模语言模型的11%~56%,增加少量样本也最多只能提升至72%。为了探究InstructGPT在命名实体识别上表现性能不佳的原因,该文通过分析模型的输出,发现接近50%的句子都存在无效生成的问题。另外,由于无效生成会同时导致“虚假错误预测”和“虚假正确预测”,解决生成无效问题并不能保证性能的提升。此外,InstructGPT抽取嵌套实体的能力还是有待提高,抽取嵌套实体的比例也偏低。因此,用InstructGPT解决命名实体识别任务,除了要保证生成的有效性,还需要更加深入地研究才能找到行之有效的方法。
关键词
大规模语言模型
命名实体识别
上下文学习
思维链
Keywords
large language model
named entity recognition
in-context learning
chain-of-thought
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
深度学习中的模型压缩技术
2
作者
陈东
刘宁
机构
吉林大学人工智能学院
美的集团ai创新中心
出处
《人工智能》
2023年第3期40-51,共12页
文摘
随着深度学习的快速发展,深度神经网络模型在计算机视觉、自然语言处理等多个领域大放异彩,但性能变强的同时,也伴随着模型规模的快速增长。应用大规模模型往往需要强大的计算力和足够的存储空间。为了使深度模型能够在资源受限的条件下高效运行,模型压缩技术应运而生。本文介绍了深度学习中模型压缩技术的相关背景,在此基础上简要介绍了一些代表性的模型压缩技术,包括网络剪枝、知识蒸馏、模型量化,以及神经结构搜索,并展望模型压缩技术在未来的发展前景。
关键词
深度学习
模型压缩
模型加速
深度神经网络
分类号
TP183 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
InstructGPT在命名实体识别任务中的表现和挑战
孙瑜
颜航
邱锡鹏
王定
牟小峰
黄萱菁
《中文信息学报》
CSCD
北大核心
2024
0
下载PDF
职称材料
2
深度学习中的模型压缩技术
陈东
刘宁
《人工智能》
2023
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部