期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
4
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于多模态大语言模型的攻击性模因解释生成方法
1
作者
林萌
戴程威
郭涛
《计算机研究与发展》
EI
CSCD
北大核心
2024年第5期1206-1217,共12页
随着5G的发展,攻击性言论逐渐以多模态的方式在社交网络上广泛传播.因此,攻击性模因的检测与解释生成对于提高内容审核效果、维护和谐健康的舆论场环境有着重要的作用.现有的攻击性模因解释生成研究只关注于攻击对象和攻击内容,忽略了...
随着5G的发展,攻击性言论逐渐以多模态的方式在社交网络上广泛传播.因此,攻击性模因的检测与解释生成对于提高内容审核效果、维护和谐健康的舆论场环境有着重要的作用.现有的攻击性模因解释生成研究只关注于攻击对象和攻击内容,忽略了模因包含的社会背景知识和隐喻表达手法,无法全面、准确地解释攻击性模因的含义,大大限制了解释的应用范围.为了应对这一挑战,提出一种基于多模态大模型的攻击性模因解释生成方法,通过增强攻击目标、攻击内容和隐喻识别等多种指令数据,利用其微调多模态大模型,以提升大模型对攻击性模因的解释生成能力.实验结果证实,该方法生成的解释具有3点优势:一是相比基线模型在BERTScore评估指标上提高了19%;二是解释中包含了攻击性隐喻表达的相关背景知识;三是在处理未见的模因数据时也表现出良好的泛化性能.
展开更多
关键词
攻击性模因
解释生成
多模态
大
语言
模型
数据增强
指令微调
下载PDF
职称材料
大语言模型在电催化领域中的应用
2
作者
张成翼
王兴宇
王子运
《Chinese Journal of Catalysis》
SCIE
CAS
CSCD
2024年第4期7-14,共8页
大语言模型作为现代科技的杰出代表,已经在社会的各个领域产生了深远影响.这些模型由数十亿个神经元相互连接构建而成,集成了人类至今为止的丰富知识,具备与全球各地人们进行流畅、精确对话的卓越能力.其类人智能特性不仅使其能够应对...
大语言模型作为现代科技的杰出代表,已经在社会的各个领域产生了深远影响.这些模型由数十亿个神经元相互连接构建而成,集成了人类至今为止的丰富知识,具备与全球各地人们进行流畅、精确对话的卓越能力.其类人智能特性不仅使其能够应对现代社会的各种挑战,更在多个科学领域中展现出巨大的应用前景.然而,目前大语言模型广泛应用的潜力尚未被完全挖掘.本文旨在深入探讨现代大语言模型在电催化领域的潜在应用,以期阐明这些人工智能驱动的模型如何助力科研人员深化对催化学科的理解,并推动催化剂的智能设计.通过对大语言模型在电催化领域应用的系统研究,我们期望能够为未来的科研工作提供新的思路和方法.本文首先分析了传统的实验法和多尺度模拟方法在催化研究中的局限性,包括资源消耗大、实验周期长、研究进展缓慢以及受人类自身能力限制等问题.随后,着重探讨了大语言模型在电催化研究中的显著优势,如突破人类认知界限、理论上具备无限知识累积能力等.尽管大语言模型展现出巨大的潜力,但仍面临泛化能力与领域专业性之间的权衡、文本限制等挑战.为应对这些挑战,本文进一步介绍了多模态大语言模型的发展及其在电催化研究中的具体应用,包括与实验者的直接互动、基于实验反馈的持续优化、预训练模型的微调以及结合视觉编码器实现多模态数据融合等.最后,强调了多模态大语言模型在光谱分析、实验路径设计、过渡状态搜索、分子结构设计、催化剂优化和问题诊断等方面的巨大潜力.总之,多模态方法在催化领域具有广泛的应用前景,能够整合多种数据源,为催化剂设计、反应机理研究和反应条件优化提供强大的工具和技术支持.最后,本文展望了大语言模型在科学研究中的作用和未来发展趋势.大语言模型在知识积累和效率提升方面展现出了出色的能力,但在创造全新知识方面,或许还无法与科学先驱相提并论.展望未来,大语言模型应当与实验和模拟方法深度融合,以增强其预测能力和多模态学习能力.通过这样的结合,大语言模型将能够更全面地辅助科学研究者,进而推动科学研究更迅速地发展.这一发展趋势不仅有助于提升科学研究的效率和准确性,还将为科学领域带来更多的创新和突破.
展开更多
关键词
大
语言
模型
电催化
人工智能
多模态
大
语言
模型
下载PDF
职称材料
GPT-4模型的已知风险、控制策略及其启示
3
作者
韩秋明
《中国科技人才》
2023年第6期57-62,共6页
对OpenAI发布的技术文件深入分析,发现GPT-4大语言模型存在3类12种风险,分别是对人的误导(幻觉、虚假信息、有害内容、用户过度依赖)、对社会秩序的挑战(社会偏见、侵犯隐私、破坏网络安全、与其他系统交互进行“算法合谋”、主动寻求资...
对OpenAI发布的技术文件深入分析,发现GPT-4大语言模型存在3类12种风险,分别是对人的误导(幻觉、虚假信息、有害内容、用户过度依赖)、对社会秩序的挑战(社会偏见、侵犯隐私、破坏网络安全、与其他系统交互进行“算法合谋”、主动寻求资源)以及对国家经济和安全的影响(劳动力替代、常规和非常规武器扩散、加速国家竞争)。本文总结OpenAI采取的多种风险防控举措,如制定严格的使用规则、数据集和预训练后干预,设置细粒度个性化的内容分类器,以及寻找漏洞的“赏金猎人计划”等,并进一步提出对生成式人工智能采取分层治理、对大语言模型进行较长时间(半年以上)的对抗性测试以及细化合规免责制度以给新兴技术发展留下试错空间等建议。
展开更多
关键词
ChatGPT
GPT-4
多模态
大
语言
模型
生成式人工智能
风险防控
下载PDF
职称材料
基于ChineseBert的中文拼写纠错方法
4
作者
崔凡
强继朋
+1 位作者
朱毅
李云
《南京大学学报(自然科学版)》
CAS
CSCD
北大核心
2023年第2期302-312,共11页
中文拼写错误主要集中在拼音相似和字形相似两个方面,而通用的预训练语言模型只考虑文本的语义信息,忽略了中文的拼音和字形特征.最新的中文拼写纠错(Chinese Spelling Correction,CSC)方法在预训练模型的基础上利用额外的网络来融入拼...
中文拼写错误主要集中在拼音相似和字形相似两个方面,而通用的预训练语言模型只考虑文本的语义信息,忽略了中文的拼音和字形特征.最新的中文拼写纠错(Chinese Spelling Correction,CSC)方法在预训练模型的基础上利用额外的网络来融入拼音和字形特征,但和直接微调预训练模型相比,改进的模型没有显著提高模型的性能,因为由小规模拼写任务语料训练的拼音和字形特征,和预训练模型获取的丰富语义特征相比,存在严重的信息不对等现象.将多模态预训练语言模型ChineseBert应用到CSC问题上,由于ChineseBert已将拼音和字形信息放到预训练模型构建阶段,基于ChineseBert的CSC方法不仅无须构建额外的网络,还解决了信息不对等的问题.由于基于预训练模型的CSC方法普遍不能很好地处理连续错误的问题,进一步提出SepSpell方法.首先利用探测网络检测可能错误的字符,再对可能错误的字符保留拼音特征和字形特征,掩码对应的语义信息进行预测,这样能降低预测过程中错误字符带来的干扰,更好地处理连续错误问题.在三个官方评测数据集上进行评估,提出的两个方法都取得了非常不错的结果.
展开更多
关键词
中文拼写纠错
Bert
ChineseBert
多模态语言模型
下载PDF
职称材料
题名
基于多模态大语言模型的攻击性模因解释生成方法
1
作者
林萌
戴程威
郭涛
机构
中国科学院信息工程研究所
中国科学院大学网络空间安全学院
出处
《计算机研究与发展》
EI
CSCD
北大核心
2024年第5期1206-1217,共12页
文摘
随着5G的发展,攻击性言论逐渐以多模态的方式在社交网络上广泛传播.因此,攻击性模因的检测与解释生成对于提高内容审核效果、维护和谐健康的舆论场环境有着重要的作用.现有的攻击性模因解释生成研究只关注于攻击对象和攻击内容,忽略了模因包含的社会背景知识和隐喻表达手法,无法全面、准确地解释攻击性模因的含义,大大限制了解释的应用范围.为了应对这一挑战,提出一种基于多模态大模型的攻击性模因解释生成方法,通过增强攻击目标、攻击内容和隐喻识别等多种指令数据,利用其微调多模态大模型,以提升大模型对攻击性模因的解释生成能力.实验结果证实,该方法生成的解释具有3点优势:一是相比基线模型在BERTScore评估指标上提高了19%;二是解释中包含了攻击性隐喻表达的相关背景知识;三是在处理未见的模因数据时也表现出良好的泛化性能.
关键词
攻击性模因
解释生成
多模态
大
语言
模型
数据增强
指令微调
Keywords
offensive meme
explanation generation
multi-modal LLM
data augment
instruction fine-tuning
分类号
TP183 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
大语言模型在电催化领域中的应用
2
作者
张成翼
王兴宇
王子运
机构
奥克兰大学化学院
出处
《Chinese Journal of Catalysis》
SCIE
CAS
CSCD
2024年第4期7-14,共8页
文摘
大语言模型作为现代科技的杰出代表,已经在社会的各个领域产生了深远影响.这些模型由数十亿个神经元相互连接构建而成,集成了人类至今为止的丰富知识,具备与全球各地人们进行流畅、精确对话的卓越能力.其类人智能特性不仅使其能够应对现代社会的各种挑战,更在多个科学领域中展现出巨大的应用前景.然而,目前大语言模型广泛应用的潜力尚未被完全挖掘.本文旨在深入探讨现代大语言模型在电催化领域的潜在应用,以期阐明这些人工智能驱动的模型如何助力科研人员深化对催化学科的理解,并推动催化剂的智能设计.通过对大语言模型在电催化领域应用的系统研究,我们期望能够为未来的科研工作提供新的思路和方法.本文首先分析了传统的实验法和多尺度模拟方法在催化研究中的局限性,包括资源消耗大、实验周期长、研究进展缓慢以及受人类自身能力限制等问题.随后,着重探讨了大语言模型在电催化研究中的显著优势,如突破人类认知界限、理论上具备无限知识累积能力等.尽管大语言模型展现出巨大的潜力,但仍面临泛化能力与领域专业性之间的权衡、文本限制等挑战.为应对这些挑战,本文进一步介绍了多模态大语言模型的发展及其在电催化研究中的具体应用,包括与实验者的直接互动、基于实验反馈的持续优化、预训练模型的微调以及结合视觉编码器实现多模态数据融合等.最后,强调了多模态大语言模型在光谱分析、实验路径设计、过渡状态搜索、分子结构设计、催化剂优化和问题诊断等方面的巨大潜力.总之,多模态方法在催化领域具有广泛的应用前景,能够整合多种数据源,为催化剂设计、反应机理研究和反应条件优化提供强大的工具和技术支持.最后,本文展望了大语言模型在科学研究中的作用和未来发展趋势.大语言模型在知识积累和效率提升方面展现出了出色的能力,但在创造全新知识方面,或许还无法与科学先驱相提并论.展望未来,大语言模型应当与实验和模拟方法深度融合,以增强其预测能力和多模态学习能力.通过这样的结合,大语言模型将能够更全面地辅助科学研究者,进而推动科学研究更迅速地发展.这一发展趋势不仅有助于提升科学研究的效率和准确性,还将为科学领域带来更多的创新和突破.
关键词
大
语言
模型
电催化
人工智能
多模态
大
语言
模型
Keywords
Large language model
Electrocatalysis
Artificial intelligence
Multimodal large language model
分类号
G63 [文化科学—教育学]
下载PDF
职称材料
题名
GPT-4模型的已知风险、控制策略及其启示
3
作者
韩秋明
机构
中国科学技术发展战略研究院
出处
《中国科技人才》
2023年第6期57-62,共6页
基金
科技创新2030—“新一代人工智能”重大项目“人工智能社会实验基础理论方法数据平台与伦理规范研究”(2020AAA0105401)。
文摘
对OpenAI发布的技术文件深入分析,发现GPT-4大语言模型存在3类12种风险,分别是对人的误导(幻觉、虚假信息、有害内容、用户过度依赖)、对社会秩序的挑战(社会偏见、侵犯隐私、破坏网络安全、与其他系统交互进行“算法合谋”、主动寻求资源)以及对国家经济和安全的影响(劳动力替代、常规和非常规武器扩散、加速国家竞争)。本文总结OpenAI采取的多种风险防控举措,如制定严格的使用规则、数据集和预训练后干预,设置细粒度个性化的内容分类器,以及寻找漏洞的“赏金猎人计划”等,并进一步提出对生成式人工智能采取分层治理、对大语言模型进行较长时间(半年以上)的对抗性测试以及细化合规免责制度以给新兴技术发展留下试错空间等建议。
关键词
ChatGPT
GPT-4
多模态
大
语言
模型
生成式人工智能
风险防控
Keywords
ChatGPT
GPT-4
Multimodal large language model
Generative artificial intelligence
Risk prevention and control
分类号
TP242 [自动化与计算机技术—检测技术与自动化装置]
G311 [文化科学]
下载PDF
职称材料
题名
基于ChineseBert的中文拼写纠错方法
4
作者
崔凡
强继朋
朱毅
李云
机构
扬州大学信息工程学院
出处
《南京大学学报(自然科学版)》
CAS
CSCD
北大核心
2023年第2期302-312,共11页
基金
国家自然科学基金(62076217,61906060)
扬州大学“青蓝工程”。
文摘
中文拼写错误主要集中在拼音相似和字形相似两个方面,而通用的预训练语言模型只考虑文本的语义信息,忽略了中文的拼音和字形特征.最新的中文拼写纠错(Chinese Spelling Correction,CSC)方法在预训练模型的基础上利用额外的网络来融入拼音和字形特征,但和直接微调预训练模型相比,改进的模型没有显著提高模型的性能,因为由小规模拼写任务语料训练的拼音和字形特征,和预训练模型获取的丰富语义特征相比,存在严重的信息不对等现象.将多模态预训练语言模型ChineseBert应用到CSC问题上,由于ChineseBert已将拼音和字形信息放到预训练模型构建阶段,基于ChineseBert的CSC方法不仅无须构建额外的网络,还解决了信息不对等的问题.由于基于预训练模型的CSC方法普遍不能很好地处理连续错误的问题,进一步提出SepSpell方法.首先利用探测网络检测可能错误的字符,再对可能错误的字符保留拼音特征和字形特征,掩码对应的语义信息进行预测,这样能降低预测过程中错误字符带来的干扰,更好地处理连续错误问题.在三个官方评测数据集上进行评估,提出的两个方法都取得了非常不错的结果.
关键词
中文拼写纠错
Bert
ChineseBert
多模态语言模型
Keywords
Chinese Spelling Correction
Bert
ChineseBert
multimodal pretrained modeling
分类号
TP391.1 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于多模态大语言模型的攻击性模因解释生成方法
林萌
戴程威
郭涛
《计算机研究与发展》
EI
CSCD
北大核心
2024
0
下载PDF
职称材料
2
大语言模型在电催化领域中的应用
张成翼
王兴宇
王子运
《Chinese Journal of Catalysis》
SCIE
CAS
CSCD
2024
0
下载PDF
职称材料
3
GPT-4模型的已知风险、控制策略及其启示
韩秋明
《中国科技人才》
2023
0
下载PDF
职称材料
4
基于ChineseBert的中文拼写纠错方法
崔凡
强继朋
朱毅
李云
《南京大学学报(自然科学版)》
CAS
CSCD
北大核心
2023
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部