期刊文献+
共找到6篇文章
< 1 >
每页显示 20 50 100
基于神经影像的深度学习模型可解释性方法在阿尔茨海默病识别中的应用
1
作者 王佳荣 柯铭 +2 位作者 董占国 王路斌 李椋 《中国生物医学工程学报》 CAS CSCD 北大核心 2023年第4期475-485,共11页
阿尔茨海默病(AD)是一种神经退行性疾病,至今其发病机制尚不明确,且无有效治愈方法。AD对家庭和社会造成严重的生活与经济负担,研究表明及时预防和干预能够延缓AD的发生与发展,其早期筛查与诊断具有重要意义。目前,基于神经影像模型的A... 阿尔茨海默病(AD)是一种神经退行性疾病,至今其发病机制尚不明确,且无有效治愈方法。AD对家庭和社会造成严重的生活与经济负担,研究表明及时预防和干预能够延缓AD的发生与发展,其早期筛查与诊断具有重要意义。目前,基于神经影像模型的AD预测已有了快速发展。首先,总结基于深度学习技术的AD预测模型,并从模型结构、数据规模以及局部和全局脑区等3个方面进行对比分析,指出其中的三维卷积神经网络模型性能最优,数据规模的持续扩增也有助于提升模型性能;然后,对目前神经影像模型的可解释性方法进行总结,对比基于敏感性分析和反向传播的可解释性方法在AD识别中的优势和缺陷,指出以反向传播为代表的可解释性方法更适合于AD研究;最后,针对研究现状,指出实现语义化的医学影像分析以及生成可理解的诊断报告将是下一步的发展方向。 展开更多
关键词 阿尔茨海默病 可解释性方法 磁共振成像 卷积神经网络
下载PDF
基于可解释性方法的网络问政效果研究——以“有话请您说”网络问政平台为例
2
作者 魏子恺 唐锡晋 《系统科学与数学》 CSCD 北大核心 2024年第5期1478-1500,共23页
随着数字化政府建设的加速推进,网络问政在中国社会治理中发挥着不可忽视的作用.为了探讨影响网络问政效果的关键因素,该研究以泸州市网络问政平台“有话您请说”中的相关数据为研究对象,采用多种机器学习和深度学习模型结合的文本数据... 随着数字化政府建设的加速推进,网络问政在中国社会治理中发挥着不可忽视的作用.为了探讨影响网络问政效果的关键因素,该研究以泸州市网络问政平台“有话您请说”中的相关数据为研究对象,采用多种机器学习和深度学习模型结合的文本数据挖掘方法,识别网络问政文本中的特征变量,构建问政满意度分类模型,并结合多种可解释性方法分别从结构特征和语义特征对模型结果进行解释分析.研究发现:问政情感,问政文本长度,诉求类型,回复情感,回应单位类型,回应时间等变量均对问政满意度有不同程度的影响.此外,研究构建的可解释性框架还能够有效识别问政中的时间,地点,组织机构名称等关键内容. 展开更多
关键词 网络问政 公众满意度 可解释性方法 文本分析
原文传递
图神经网络算法架构及可解释性研究分析
3
作者 刘杰 王敏 +1 位作者 唐青梅 张萌月 《信息技术与信息化》 2024年第1期178-183,共6页
首先,全面概述了图神经网络的基本概念和意义,对基于谱的图神经网络、基于空域的图神经网络和其他图神经网络三个类别进行了系统性介绍,同时总结了训练过程中常用的优化技术。其次,分析了图神经网络领域目前面临的可解释性问题的挑战,... 首先,全面概述了图神经网络的基本概念和意义,对基于谱的图神经网络、基于空域的图神经网络和其他图神经网络三个类别进行了系统性介绍,同时总结了训练过程中常用的优化技术。其次,分析了图神经网络领域目前面临的可解释性问题的挑战,从而明确了研究目标。随后,阐述了图形神经网络的可解释性基本概念与基础理论,将其分类为实例级和模型级可解释性技术,并列出了评估图学习方法可解释性的度量指标。最后,在结语部分总结了本文的主要研究脉络,并对该领域的未来研究方向提出了建议。旨在介绍图神经网络的理论基础以及其在可解释性领域的研究。 展开更多
关键词 深度学习 图神经网络 应用与挑战 可解释性方法 可解释性度量 谱卷积 空域卷积
下载PDF
光伏阵列故障诊断的可解释性智能集成方法
4
作者 陈泽 刘文泽 +2 位作者 王康德 余涛 黄展鸿 《电力自动化设备》 EI 2024年第6期18-25,共8页
针对现有光伏阵列故障检测和诊断智能方法存在的泛化性不强、可解释性差的问题,提出了一种可解释性智能集成方法。对采集的光伏阵列输出时序电压、电流波形进行特征挖掘,并将多个已成熟应用于光伏故障诊断的智能算法作为不同基学习器与... 针对现有光伏阵列故障检测和诊断智能方法存在的泛化性不强、可解释性差的问题,提出了一种可解释性智能集成方法。对采集的光伏阵列输出时序电压、电流波形进行特征挖掘,并将多个已成熟应用于光伏故障诊断的智能算法作为不同基学习器与元学习器,构建结合不同智能算法优势且更具泛化性的Stacking集成学习模型;以沙普利可加性特征解释方法为总框架,并结合局部近似可解释性方法,对模型训练过程与结果进行解释分析,通过获取各特征的贡献、分析该集成模型的决策机制,并了解其如何进行诊断,提高其可靠度和可信度。算例实验结果表明,所提可解释性智能集成方法在不同规模数据集的测试中均实现了高精度的故障诊断,模型的可解释性结果表明由该智能集成模型建立的故障特征和诊断结果的映射遵循物理见解,增强了智能方法的可信度和透明性。 展开更多
关键词 光伏阵列 故障诊断 Stacking集成 可解释性智能方法 沙普利可加性特征解释方法
下载PDF
基于XGBoost的二轮车碾压事故致因研究
5
作者 殷豪 林淼 +2 位作者 王鹏 魏雯 朱彤 《安全与环境工程》 CAS CSCD 北大核心 2023年第5期19-27,45,共10页
二轮车被卷入机动车底部并遭受碾压,会造成严重的事故伤害。为识别二轮车被卷入机动车底部的原因及其影响因素,以中国交通事故深度调查(CIDAS)数据库中2 627起二轮车与机动车碰撞事故案例为基础,根据数据分布特征采用合成少数过采样(SMO... 二轮车被卷入机动车底部并遭受碾压,会造成严重的事故伤害。为识别二轮车被卷入机动车底部的原因及其影响因素,以中国交通事故深度调查(CIDAS)数据库中2 627起二轮车与机动车碰撞事故案例为基础,根据数据分布特征采用合成少数过采样(SMOTE)技术形成平衡数据集以训练机器学习模型;经过对比7种机器学习模型的分类性能,选用XGBoost模型构建二轮车碾压事故预测模型,并基于多项指标进行交叉验证以验证模型的预测性能;最后采用SHAP可解释性方法进一步挖掘二轮车碾压事故致因。结果表明:二轮车碾压事故致死率超出非碾压事故25.3%;XGBoost模型的综合预测性能优于其余6种机器学习模型;在与事故相关的环境因素中,工业区和郊区以及弯道、交叉路口是二轮车碾压事故的高发地点;与碰撞场景相关的二轮车碾压事故高风险因素包括二轮车侧面或尾部碰撞以及二轮车较低车速;摩托车以及踏板式二轮车不易被四轮机动车碾压;此外,二轮车车身越小,四轮机动车越高、越长,越容易发生二轮车碾压事故。根据研究结果从车辆设计、交通管理角度提出了避免二轮车骑行者遭受四轮机动车碾压的建议,为事故精准防控提供了新的视角和信息。 展开更多
关键词 二轮车 碾压事故 致因 机器学习 XGBoost模型 SHAP可解释性方法 交通安全
下载PDF
可解释深度学习在光谱和医学影像分析中的应用 被引量:1
6
作者 刘煦阳 段潮舒 +1 位作者 蔡文生 邵学广 《化学进展》 SCIE CAS CSCD 北大核心 2022年第12期2561-2572,共12页
深度学习是一种基于神经网络的建模方法,通过不同功能感知层的构建获得优化模型,提取大量数据的内在规律,实现端到端的建模。数据规模的增长和计算能力的提高促进了深度学习在光谱及医学影像分析中的应用,但深度学习模型可解释性的不足... 深度学习是一种基于神经网络的建模方法,通过不同功能感知层的构建获得优化模型,提取大量数据的内在规律,实现端到端的建模。数据规模的增长和计算能力的提高促进了深度学习在光谱及医学影像分析中的应用,但深度学习模型可解释性的不足是阻碍其应用的关键因素。为克服深度学习可解释性的不足,研究者提出并发展了可解释性方法。根据解释原理的不同,可解释性方法划分为可视化方法、模型蒸馏及可解释模型,其中可视化方法及模型蒸馏属于外部解释算法,在不改变模型结构的前提下解释模型,而可解释模型旨在使模型结构可解释。本文从算法角度介绍了深度学习及三类可解释性方法的原理,综述了近三年深度学习及可解释性方法在光谱及医学影像分析中的应用。多数研究聚焦于可解释性方法的建立,通过外部算法揭示模型的预测机制并解释模型,但构建可解释模型方面的研究相对较少。此外,采用大量标记数据训练模型是目前的主流研究方式,但给数据的采集带来了巨大的负担。基于小规模数据的训练策略、增强模型可解释性的方法及可解释模型的构建仍是未来的发展趋势。 展开更多
关键词 深度学习 可解释性方法 神经网络 医学影像分析 光谱分析
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部