期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
4
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于融合关键词和对比学习训练的生成式报告摘要模型研究——以中国智库报告为例
1
作者
陈媛媛
王磊
《农业图书情报学报》
2023年第6期72-82,共11页
[目的/意义]智库报告是由独立研究机构提供的专业分析和政策建议,为决策者和公众提供决策支持和促进社会进步的重要工具。智库报告摘要可以为读者提供一个简洁明了的概述,以便他们能够快速了解报告的主要内容和结论,从而提高信息筛选、...
[目的/意义]智库报告是由独立研究机构提供的专业分析和政策建议,为决策者和公众提供决策支持和促进社会进步的重要工具。智库报告摘要可以为读者提供一个简洁明了的概述,以便他们能够快速了解报告的主要内容和结论,从而提高信息筛选、传播效果和知识传递的效率。目前的智库报告存在主题差异大导致生成摘要不准确的问题,亟需对现有的文本摘要方法进行改进。[方法/过程]针对上述问题,本文提出了一种融合关键词的智库报告摘要模型。首先使用关键词抽取算法抽取原文中的关键词信息,其次提出一种基于交叉注意力机制的融合关键词模块用于提升模型对于主题信息的感知能力,并且在训练的过程中使用了对比学习训练。[结果/结论]结果表明,融合关键词的摘要模型在智库报告文本摘要任务中的Rouge-1、Rouge-2和Rouge-L值优于其他文本摘要模型,分别达到了48.23、32.55和42.50,在智库报告文本摘要任务上具有更优的摘要效果。
展开更多
关键词
智库报告
报告摘要
融合关键词
对比学习训练
下载PDF
职称材料
语义增强图像-文本预训练模型的零样本三维模型分类
2
作者
丁博
张立宝
+1 位作者
秦健
何勇军
《电子与信息学报》
EI
CAS
CSCD
北大核心
2024年第8期3314-3323,共10页
目前,基于对比学习的图像-文本预训练模型(CLIP)在零样本3维模型分类任务上表现出了巨大潜力,然而3维模型和文本之间存在巨大的模态鸿沟,影响了分类准确率的进一步提高。针对以上问题,该文提出一种语义增强CLIP的零样本3维模型分类方法...
目前,基于对比学习的图像-文本预训练模型(CLIP)在零样本3维模型分类任务上表现出了巨大潜力,然而3维模型和文本之间存在巨大的模态鸿沟,影响了分类准确率的进一步提高。针对以上问题,该文提出一种语义增强CLIP的零样本3维模型分类方法。该方法首先将3维模型表示成多视图;然后为了增强零样本学习对未知类别的识别能力,通过视觉语言生成模型获得每张视图及其类别的语义描述性文本,并将其作为视图和类别提示文本之间的语义桥梁,语义描述性文本采用图像字幕和视觉问答两种方式获取;最后微调语义编码器将语义描述性文本具化为类别的语义描述,其拥有丰富的语义信息和较好的可解释性,有效减小了视图和类别提示文本的语义鸿沟。实验表明,该文方法在ModelNet10和ModelNet40数据集上的分类性能优于现有的零样本分类方法。
展开更多
关键词
3维模型分类
零样本
基于
对比学习
的图像-文本预
训练
模型
语义描述性文本
下载PDF
职称材料
基于CLIP和双空间自适应归一化的图像翻译
被引量:
1
3
作者
李田芳
普园媛
+2 位作者
赵征鹏
徐丹
钱文华
《计算机工程》
CAS
CSCD
北大核心
2024年第5期229-240,共12页
现有的图像翻译方法大多依赖数据集域标签来完成翻译任务,这种依赖往往限制了它们的应用范围。针对完全无监督图像翻译任务的方法能够解决域标签的限制问题,但是普遍存在源域信息丢失的现象。为了解决上述2个问题,提出一种基于对比学习...
现有的图像翻译方法大多依赖数据集域标签来完成翻译任务,这种依赖往往限制了它们的应用范围。针对完全无监督图像翻译任务的方法能够解决域标签的限制问题,但是普遍存在源域信息丢失的现象。为了解决上述2个问题,提出一种基于对比学习语言-图像预训练(CLIP)的无监督图像翻译模型。首先,引入CLIP相似性损失对图像的风格特征施加约束,以在不使用数据集域标签的情况下增强模型传递图像风格信息的能力和准确性;其次,对自适应实例归一化(AdaIN)进行改进,设计一个新的双空间自适应归一化(DSAdaIN)模块,在特征的风格化阶段添加网络的学习和自适应交互过程,以加强对内容源域信息的保留;最后,设计一个鉴别器对比损失来平衡对抗网络损失的训练和优化过程。在多个公开数据集上的实验结果表明,与Star GANv2、Style DIS等模型相比,该模型可在准确传递图像风格信息的同时保留一定的源域信息,且在定量评估指标FID分数和KID分数上分别提升了近3.35和0.57×102,实现了较好的图像翻译性能。
展开更多
关键词
图像翻译
生成对抗网络
对比学习
语言-图像预
训练
模型
自适应实例归一化
对比学习
下载PDF
职称材料
基于扩散生成对抗网络的文本生成图像模型研究
4
作者
赵宏
李文改
《电子与信息学报》
EI
CSCD
北大核心
2023年第12期4371-4381,共11页
文本生成图像是一项结合计算机视觉(CV)和自然语言处理(NLP)领域的综合性任务。以生成对抗网络(GANs)为基础的方法在文本生成图像方面取得了显著进展,但GANs方法的模型存在训练不稳定的问题。为解决这一问题,该文提出一种基于扩散Wasser...
文本生成图像是一项结合计算机视觉(CV)和自然语言处理(NLP)领域的综合性任务。以生成对抗网络(GANs)为基础的方法在文本生成图像方面取得了显著进展,但GANs方法的模型存在训练不稳定的问题。为解决这一问题,该文提出一种基于扩散Wasserstein生成对抗网络(WGAN)的文本生成图像模型(D-WGAN)。在DWGAN中,利用向判别器中输入扩散过程中随机采样的实例噪声,在实现模型稳定训练的同时,生成高质量和多样性的图像。考虑到扩散过程的采样成本较高,引入一种随机微分的方法,以简化采样过程。为了进一步对齐文本与图像的信息,提出使用基于对比学习的语言-图像预训练模型(CLIP)获得文本与图像信息之间的跨模态映射关系,从而提升文本和图像的一致性。在MSCOCO,CUB-200数据集上的实验结果表明,D-WGAN在实现稳定训练的同时,与当前最好的方法相比,FID分数分别降低了16.43%和1.97%,IS分数分别提升了3.38%和30.95%,说明D-WGAN生成的图像质量更高,更具有实用价值。
展开更多
关键词
文本生成图像
生成对抗网络
扩散过程
对比学习
的语言-图像预
训练
模型
语义匹配
下载PDF
职称材料
题名
基于融合关键词和对比学习训练的生成式报告摘要模型研究——以中国智库报告为例
1
作者
陈媛媛
王磊
机构
上海出版印刷高等专科学校国家新闻出版署智能与绿色柔板印刷重点实验室
新疆师范大学计算机科学技术学院
出处
《农业图书情报学报》
2023年第6期72-82,共11页
基金
2019年度国家社会科学基金项目“美国著名智库网络影响力研究及其启示研究”(19BTQ067)。
文摘
[目的/意义]智库报告是由独立研究机构提供的专业分析和政策建议,为决策者和公众提供决策支持和促进社会进步的重要工具。智库报告摘要可以为读者提供一个简洁明了的概述,以便他们能够快速了解报告的主要内容和结论,从而提高信息筛选、传播效果和知识传递的效率。目前的智库报告存在主题差异大导致生成摘要不准确的问题,亟需对现有的文本摘要方法进行改进。[方法/过程]针对上述问题,本文提出了一种融合关键词的智库报告摘要模型。首先使用关键词抽取算法抽取原文中的关键词信息,其次提出一种基于交叉注意力机制的融合关键词模块用于提升模型对于主题信息的感知能力,并且在训练的过程中使用了对比学习训练。[结果/结论]结果表明,融合关键词的摘要模型在智库报告文本摘要任务中的Rouge-1、Rouge-2和Rouge-L值优于其他文本摘要模型,分别达到了48.23、32.55和42.50,在智库报告文本摘要任务上具有更优的摘要效果。
关键词
智库报告
报告摘要
融合关键词
对比学习训练
Keywords
think tank reports
report summary
fused keywords
contrastive learning training
分类号
TP183 [自动化与计算机技术—控制理论与控制工程]
TP391.9 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
语义增强图像-文本预训练模型的零样本三维模型分类
2
作者
丁博
张立宝
秦健
何勇军
机构
哈尔滨理工大学计算机科学与技术学院
哈尔滨工业大学计算学部
出处
《电子与信息学报》
EI
CAS
CSCD
北大核心
2024年第8期3314-3323,共10页
基金
国家自然科学基金(61673142)
黑龙江省自然科学基金(LH2022F029,JQ2019F002)。
文摘
目前,基于对比学习的图像-文本预训练模型(CLIP)在零样本3维模型分类任务上表现出了巨大潜力,然而3维模型和文本之间存在巨大的模态鸿沟,影响了分类准确率的进一步提高。针对以上问题,该文提出一种语义增强CLIP的零样本3维模型分类方法。该方法首先将3维模型表示成多视图;然后为了增强零样本学习对未知类别的识别能力,通过视觉语言生成模型获得每张视图及其类别的语义描述性文本,并将其作为视图和类别提示文本之间的语义桥梁,语义描述性文本采用图像字幕和视觉问答两种方式获取;最后微调语义编码器将语义描述性文本具化为类别的语义描述,其拥有丰富的语义信息和较好的可解释性,有效减小了视图和类别提示文本的语义鸿沟。实验表明,该文方法在ModelNet10和ModelNet40数据集上的分类性能优于现有的零样本分类方法。
关键词
3维模型分类
零样本
基于
对比学习
的图像-文本预
训练
模型
语义描述性文本
Keywords
3D shape classification
Zero-shot
Contrastive Language-Image Pre-training(CLIP)
Semantic descriptive text
分类号
TN911.7 [电子电信—通信与信息系统]
TP391.4 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
基于CLIP和双空间自适应归一化的图像翻译
被引量:
1
3
作者
李田芳
普园媛
赵征鹏
徐丹
钱文华
机构
云南大学信息学院
云南省高校物联网技术及应用重点实验室
出处
《计算机工程》
CAS
CSCD
北大核心
2024年第5期229-240,共12页
基金
国家自然科学基金(61163019,61271361,61761046,U1802271,61662087,62061049)
云南省科技厅项目(2014FA021,2018FB100)
+2 种基金
云南省科技厅应用基础研究计划重点项目(202001BB050043,2019FA044)
云南省重大科技专项计划项目(202002AD080001)
云南省中青年学术技术带头人后备人才(2019HB121)。
文摘
现有的图像翻译方法大多依赖数据集域标签来完成翻译任务,这种依赖往往限制了它们的应用范围。针对完全无监督图像翻译任务的方法能够解决域标签的限制问题,但是普遍存在源域信息丢失的现象。为了解决上述2个问题,提出一种基于对比学习语言-图像预训练(CLIP)的无监督图像翻译模型。首先,引入CLIP相似性损失对图像的风格特征施加约束,以在不使用数据集域标签的情况下增强模型传递图像风格信息的能力和准确性;其次,对自适应实例归一化(AdaIN)进行改进,设计一个新的双空间自适应归一化(DSAdaIN)模块,在特征的风格化阶段添加网络的学习和自适应交互过程,以加强对内容源域信息的保留;最后,设计一个鉴别器对比损失来平衡对抗网络损失的训练和优化过程。在多个公开数据集上的实验结果表明,与Star GANv2、Style DIS等模型相比,该模型可在准确传递图像风格信息的同时保留一定的源域信息,且在定量评估指标FID分数和KID分数上分别提升了近3.35和0.57×102,实现了较好的图像翻译性能。
关键词
图像翻译
生成对抗网络
对比学习
语言-图像预
训练
模型
自适应实例归一化
对比学习
Keywords
image-to-image translation
Generative Adversarial Networks(GAN)
Contrastive Language-Image Pre-training(CLIP)model
Adaptive Instance Normalization(AdaIN)
contrastive learning
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
基于扩散生成对抗网络的文本生成图像模型研究
4
作者
赵宏
李文改
机构
兰州理工大学计算机与通信学院
出处
《电子与信息学报》
EI
CSCD
北大核心
2023年第12期4371-4381,共11页
基金
国家自然科学基金(62166025)
甘肃省重点研发计划(21YF5GA073)。
文摘
文本生成图像是一项结合计算机视觉(CV)和自然语言处理(NLP)领域的综合性任务。以生成对抗网络(GANs)为基础的方法在文本生成图像方面取得了显著进展,但GANs方法的模型存在训练不稳定的问题。为解决这一问题,该文提出一种基于扩散Wasserstein生成对抗网络(WGAN)的文本生成图像模型(D-WGAN)。在DWGAN中,利用向判别器中输入扩散过程中随机采样的实例噪声,在实现模型稳定训练的同时,生成高质量和多样性的图像。考虑到扩散过程的采样成本较高,引入一种随机微分的方法,以简化采样过程。为了进一步对齐文本与图像的信息,提出使用基于对比学习的语言-图像预训练模型(CLIP)获得文本与图像信息之间的跨模态映射关系,从而提升文本和图像的一致性。在MSCOCO,CUB-200数据集上的实验结果表明,D-WGAN在实现稳定训练的同时,与当前最好的方法相比,FID分数分别降低了16.43%和1.97%,IS分数分别提升了3.38%和30.95%,说明D-WGAN生成的图像质量更高,更具有实用价值。
关键词
文本生成图像
生成对抗网络
扩散过程
对比学习
的语言-图像预
训练
模型
语义匹配
Keywords
Text-to-image generation
Generative Adversarial Network(GAN)
Diffusion process
Contrastive Language-Image Pre-training(CLIP)
Semantic matching
分类号
TN911.73 [电子电信—通信与信息系统]
TP183 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于融合关键词和对比学习训练的生成式报告摘要模型研究——以中国智库报告为例
陈媛媛
王磊
《农业图书情报学报》
2023
0
下载PDF
职称材料
2
语义增强图像-文本预训练模型的零样本三维模型分类
丁博
张立宝
秦健
何勇军
《电子与信息学报》
EI
CAS
CSCD
北大核心
2024
0
下载PDF
职称材料
3
基于CLIP和双空间自适应归一化的图像翻译
李田芳
普园媛
赵征鹏
徐丹
钱文华
《计算机工程》
CAS
CSCD
北大核心
2024
1
下载PDF
职称材料
4
基于扩散生成对抗网络的文本生成图像模型研究
赵宏
李文改
《电子与信息学报》
EI
CSCD
北大核心
2023
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部