期刊文献+
共找到718篇文章
< 1 2 36 >
每页显示 20 50 100
基于可解释性结果的数据故事化关键技术分析、融合与应用
1
作者 靳庆文 李美静 《情报杂志》 CSSCI 北大核心 2024年第11期129-138,共10页
[研究目的]明确可解释性结果用于数据故事化的关键技术类型,探索技术融合框架辅助数据故事化的应用流程,对于深度挖掘数据潜在价值、实现解释结果的故事化呈现具有重要意义。[研究方法]为建好可解释性结果与数据故事化的连接,提出了LIM... [研究目的]明确可解释性结果用于数据故事化的关键技术类型,探索技术融合框架辅助数据故事化的应用流程,对于深度挖掘数据潜在价值、实现解释结果的故事化呈现具有重要意义。[研究方法]为建好可解释性结果与数据故事化的连接,提出了LIME改进技术、要素关联技术、高潮点识别技术和故事化自动生成技术,并进一步构建基于四种关键技术的融合框架和故事化流程。[研究结论]LIME改进算法的拟合优度由之前的0.50提高到0.82,且与原始LIME方法相比,残差降低了95%,识别出的高潮点相较于初始样本点,其特征变化幅度在局部区域保证最小。本研究实现了基于特征变化的数据故事的自动化生成,证明技术融合框架在实现故事化解释方面是有效的。 展开更多
关键词 可解释性结果 数据故事化 关键技术 技术融合 技术识别
下载PDF
聚焦可解释性:知识追踪模型综述与展望 被引量:2
2
作者 杨文阳 杨益慧 《现代教育技术》 CSSCI 2024年第5期53-63,共11页
模型的可解释性是评估其实用性和实际应用价值的重要指标,但目前基于深度学习的知识追踪模型普遍存在可解释性差的问题,导致教学决策过程不透明。对此,文章首先介绍了知识追踪的流程,分析了知识追踪模型的可解释性,并根据可解释性方法... 模型的可解释性是评估其实用性和实际应用价值的重要指标,但目前基于深度学习的知识追踪模型普遍存在可解释性差的问题,导致教学决策过程不透明。对此,文章首先介绍了知识追踪的流程,分析了知识追踪模型的可解释性,并根据可解释性方法在模型训练过程中作用的时间,将可解释知识追踪模型分为事前可解释的知识追踪模型和事后可解释的知识追踪模型。随后,文章分别对这两种模型进行再分类,并从优点、缺点两个维度,对不同类型的事前、事后可解释知识追踪模型进行了对比。最后,文章从模型可视化、融入教育规律、多模态数据融合、解释方法探索、可解释性评估等方面,对未来可解释知识追踪模型的教学应用进行了展望。文章的研究有助于提升知识追踪模型在教学中的实用性,推动教育数字化的进程。 展开更多
关键词 知识追踪 可解释性 全局可解释性 局部可解释性 智慧教育
下载PDF
特高拱坝变形机理可解释性智能预测模型
3
作者 马春辉 余飞 +1 位作者 程琳 杨杰 《水力发电学报》 CSCD 北大核心 2024年第10期107-120,共14页
针对传统“黑箱”模型可以预测却无法解释拱坝变形的缺陷,利用Shapley Additive Explanation(SHAP)理论对特高拱坝的机器学习变形预测模型进行解构分析,分析水压、温度、时效对特高拱坝不同部位径向水平位移的影响规律。构建特高拱坝变... 针对传统“黑箱”模型可以预测却无法解释拱坝变形的缺陷,利用Shapley Additive Explanation(SHAP)理论对特高拱坝的机器学习变形预测模型进行解构分析,分析水压、温度、时效对特高拱坝不同部位径向水平位移的影响规律。构建特高拱坝变形监测数据的轻量梯度提升算法(Light Gradient Boosting Machine,LightGBM)黑箱预测模型,利用SHAP对存在多重共线性的因子进行剔除,再从整个因子集和单个样本两个角度分析不同影响因子对模型变形预测的贡献度;通过分析拉西瓦特高拱坝坝肩、坝基、拱冠等不同部位的径向水平位移与影响因子间的关系,发现时效因子对高程越高、越靠近拱冠位置的径向水平位移影响越大,温度因子主要影响靠近拱冠位置的径向水平位移,水压因子主要影响高程较高位置的径向水平位移,而坝基和深入坝肩岩体测点的径向水平位移几乎不受水位、温度的影响。解决了以往“黑箱”变形预测模型可视性差、内部机理不明的问题,根据可解释模型得到的相关规律可为特高拱坝的工作性态分析和运行管理提供借鉴。 展开更多
关键词 水利工程 特高拱坝 监控模型 SHAP可解释性 LightGBM算法 变形预测
下载PDF
基于可解释性深度学习的太阳辐射强度预测
4
作者 李昂 周雷金 +1 位作者 闫群民 贺海育 《热力发电》 CAS CSCD 北大核心 2024年第5期132-140,共9页
准确预测太阳辐射强度(SI)对电力调度和光伏选址至关重要。随着高性能计算机和大容量存储设备的发展,基于数据驱动的深度学习模型在SI预测领域获得广泛关注,然而,深度学习模型的“黑箱”特性在物理解释性上的缺失,限制了其在特定场合的... 准确预测太阳辐射强度(SI)对电力调度和光伏选址至关重要。随着高性能计算机和大容量存储设备的发展,基于数据驱动的深度学习模型在SI预测领域获得广泛关注,然而,深度学习模型的“黑箱”特性在物理解释性上的缺失,限制了其在特定场合的应用可信度。为了在保持预测精度和模型结构不变、不增加计算复杂度的前提下,提升模型的可解释性,构建了一个基于长短时记忆(LSTM)神经网络的模型。其性能比传统神经网络提高了8.07%,并展示出更优的离群点处理能力。通过采用分层相关传播(LRP)算法,从时间和空间2个维度对影响模型输出的因素进行了评分,增强了模型的可解释性。研究结果表明:该模型在确保性能的前提下,具备良好的可解释性,其中历史辐射强度、时间相关特征(如时日周月)、太阳高度角信息(如日出和日落时刻)、云层覆盖度、辐射时长、温度和露点温度等因素是影响太阳辐射强度预测的主要因素。 展开更多
关键词 太阳辐射强度预测 深度学习 可解释性 LRP算法 LSTM
下载PDF
基于LightGBM与SHAP的空腔积水深度可解释性机器学习模型
5
作者 李珊珊 孙朝阳 李国栋 《力学季刊》 CAS CSCD 北大核心 2024年第2期442-453,共12页
传统的机器学习模型主要围绕如何提升模型预测精度进行研究,从而忽略了预测结果的可解释性.本研究基于LightGBM (Light Gradient Boosting Machine)建立了预测掺气设施空腔积水深度的黑箱模型,与常用的机器学习模型如RF (Random Forest)... 传统的机器学习模型主要围绕如何提升模型预测精度进行研究,从而忽略了预测结果的可解释性.本研究基于LightGBM (Light Gradient Boosting Machine)建立了预测掺气设施空腔积水深度的黑箱模型,与常用的机器学习模型如RF (Random Forest)、SVM (Support Vector Machine)及XGBoost (Extreme Gradient Boosting)对比结果表明LightGBM拥有较高的预测精度.进一步通过贝叶斯优化技术对LightGBM的四个超参数进行优化,较大程度上提升了模型的R^(2)(决定系数)得分.应用SHAP (Shapley Additive Explanation)事后解释方法对LightGBM的预测结果进行全局解释和局部解释.全局解释结果表明:流速、水舌冲击角、坎高及流量是影响空腔积水形成的主要因素,特征交互解释可以用来解释特征之间的复杂非线性关系,局部解释则可以显示单个样本各特征的影响大小.研究建立的基于LightGBM-SHAP的空腔积水深度可解释性机器学习模型在掺气设施体型优化及模型试验方案优化方面有很好的应用前景. 展开更多
关键词 可解释性机器学习 空腔积水 贝叶斯优化 LightGBM SHAP
下载PDF
基于人在回路的纵向联邦学习模型可解释性研究
6
作者 李晓欢 郑钧柏 +2 位作者 康嘉文 叶进 陈倩 《智能科学与技术学报》 CSCD 2024年第1期64-75,共12页
纵向联邦学习(vertical federated learning,VFL)常用于高风险场景中的跨领域数据共享,用户需要理解并信任模型决策以推动模型应用。现有研究主要关注VFL中可解释性与隐私之间的权衡,未充分满足用户对模型建立信任及调优的需求。为此,... 纵向联邦学习(vertical federated learning,VFL)常用于高风险场景中的跨领域数据共享,用户需要理解并信任模型决策以推动模型应用。现有研究主要关注VFL中可解释性与隐私之间的权衡,未充分满足用户对模型建立信任及调优的需求。为此,提出了一种基于人在回路(human-in-the-loop,HITL)的纵向联邦学习解释方法(explainable vertical federated learning based on human-in-the-loop,XVFL-HITL),通过构建分布式HITL结构将用户反馈纳入VFL的基于Shapley值的解释方法中,利用各参与方的知识校正训练数据来提高模型性能。进一步,考虑到隐私问题,基于Shapley值的可加性原理,将非当前参与方的特征贡献值整合为一个整体展示,从而有效保护了各参与方的特征隐私。实验结果表明,在基准数据上,XVFL-HITL的解释结果具有有效性,并保护了用户的特征隐私;同时,XVFL-HITL对比VFL-Random和直接使用SHAP的VFL-Shapley进行特征选择的方法,模型准确率分别提高了约14%和11%。 展开更多
关键词 纵向联邦学习 可解释性 人在回路 SHAPLEY值
下载PDF
可解释性长短期记忆模型用于预测湖泊总磷浓度变化 被引量:1
7
作者 丁艺鼎 范宏翔 +4 位作者 徐力刚 蒋名亮 吕海深 朱永华 程俊翔 《湖泊科学》 EI CAS CSCD 北大核心 2024年第4期1046-1059,I0007,共15页
对湖泊总磷的变化预测和来源识别对水资源调度和流域生态治理有着重要的意义,然而复杂的生化反应和水动力条件导致的非平稳性给湖泊总磷浓度的准确预测带来极大的困难。为克服这一挑战,本文引入了基于加权回归的季节趋势分解(seasonal a... 对湖泊总磷的变化预测和来源识别对水资源调度和流域生态治理有着重要的意义,然而复杂的生化反应和水动力条件导致的非平稳性给湖泊总磷浓度的准确预测带来极大的困难。为克服这一挑战,本文引入了基于加权回归的季节趋势分解(seasonal and trend decomposition using Loess,STL)技术和夏普利加法(SHapley additive exPlanations,SHAP)结合长短期记忆网络(long short-term memory neural network,LSTM)和门控循环单元(gated recurrent unit,GRU)构建了一个可解释的预测框架,以增强对湖泊总磷浓度演变的预测并提高其可解释性。研究表明:(1)在骆马湖总磷浓度的预测中,该框架拥有较好的预报精度(R^(2)=0.878),优于LSTM和卷积长短期记忆模型(convolutional neural networks and long short term memory network,CNN-LSTM)。当预测时间步长增加到8 h时,该框架有效提高了总磷浓度的预测精度,平均相对误差和均方根误差分别降低了47.1%和33.3%。从预测趋势来看,骆马湖在汛期的总磷平均浓度为0.158 mg/L,相较于非汛期的平均浓度,增加了202.1%。(2)运河来水是骆马湖总磷浓度最重要的影响因素,贡献权重为60.0%,并且不同断面(三湾、三场)的污染源受水动力、气象等因素的影响存在显著的时空差异。本文凸显了神经网络模型在预警水体污染方面的可实施性,并且为提高传统神经网络的学习能力和可解释性的开发与验证提供了重要方向。 展开更多
关键词 深度学习 LSTM SHAP 总磷 可解释性研究 骆马湖
下载PDF
卷积神经网络的可解释性研究综述 被引量:12
8
作者 窦慧 张凌茗 +2 位作者 韩峰 申富饶 赵健 《软件学报》 EI CSCD 北大核心 2024年第1期159-184,共26页
神经网络模型性能日益强大,被广泛应用于解决各类计算机相关任务,并表现出非常优秀的能力,但人类对神经网络模型的运行机制却并不完全理解.针对神经网络可解释性的研究进行了梳理和汇总,就模型可解释性研究的定义、必要性、分类、评估... 神经网络模型性能日益强大,被广泛应用于解决各类计算机相关任务,并表现出非常优秀的能力,但人类对神经网络模型的运行机制却并不完全理解.针对神经网络可解释性的研究进行了梳理和汇总,就模型可解释性研究的定义、必要性、分类、评估等方面进行了详细的讨论.从解释算法的关注点出发,提出一种神经网络可解释算法的新型分类方法,为理解神经网络提供一个全新的视角.根据提出的新型分类方法对当前卷积神经网络的可解释方法进行梳理,并对不同类别解释算法的特点进行分析和比较.同时,介绍了常见可解释算法的评估原则和评估方法.对可解释神经网络的研究方向与应用进行概述.就可解释神经网络面临的挑战进行阐述,并针对这些挑战给出可能的解决方向. 展开更多
关键词 神经网络 可解释性 分类 深度学习
下载PDF
基于可解释性分析的深度神经网络优化方法 被引量:2
9
作者 吴欢欢 谢瑞麟 +2 位作者 乔塬心 陈翔 崔展齐 《计算机研究与发展》 EI CSCD 北大核心 2024年第1期209-220,共12页
近年来,深度神经网络(deep neural network,DNN)在众多领域取得了广泛应用,甚至在安全关键系统中已经可以代替人类作出决策,如自动驾驶和智慧医疗等,这对DNN的可靠性提出了更高的要求.由于DNN具有复杂的多层非线性网络结构,难以理解其... 近年来,深度神经网络(deep neural network,DNN)在众多领域取得了广泛应用,甚至在安全关键系统中已经可以代替人类作出决策,如自动驾驶和智慧医疗等,这对DNN的可靠性提出了更高的要求.由于DNN具有复杂的多层非线性网络结构,难以理解其内部预测机制,也很难对其进行调试.现有的DNN调试工作主要通过修改DNN的参数和扩增数据集提升DNN性能,以达到优化的目的.然而直接调整参数难以控制修改的幅度,甚至使模型失去对训练数据的拟合能力;而无指导地扩增训练数据则会大幅增加训练成本.针对此问题,提出了一种基于可解释性分析的DNN优化方法(optimizing DNN based on interpretability analysis,OptDIA).对DNN的训练过程及决策行为进行解释分析,根据解释分析结果,将原始数据中对DNN决策行为产生不同程度影响的部分以不同概率进行数据变换以生成新训练数据,并重训练DNN,以提升模型性能达到优化DNN的目的.在使用3个数据集训练的9个DNN模型上的实验结果表明,OptDIA可以将DNN的准确率提升0.39~2.15个百分点,F1-score提升0.11~2.03个百分点. 展开更多
关键词 深度神经网络 DNN优化 DNN缺陷 DNN性能 可解释性分析
下载PDF
基于CatBoost-SHAP模型的滑坡易发性建模及可解释性 被引量:1
10
作者 曾韬睿 王林峰 +2 位作者 张俞 程平 吴帆 《中国地质灾害与防治学报》 CSCD 2024年第1期37-50,共14页
文章致力于深入探索滑坡易发性建模中集成学习模型的不确定性和可解释性。以浙江省东部沿海山区为研究对象,利用谷歌历史影像与Sentinel-2A影像,记录了2016年超级台风“鲇鱼”触发的552起浅层滑坡事件。研究首先对连续型因子进行了不分... 文章致力于深入探索滑坡易发性建模中集成学习模型的不确定性和可解释性。以浙江省东部沿海山区为研究对象,利用谷歌历史影像与Sentinel-2A影像,记录了2016年超级台风“鲇鱼”触发的552起浅层滑坡事件。研究首先对连续型因子进行了不分级、等间距法和自然断点法的工况设计,进一步划分为4,6,8,12,16,20级。随后,引入了类别增强提升树模型(CatBoost)以评估不同工况下的滑坡易发性值,再结合受试者曲线与沙普利加性解释法分析,对建模过程中的不确定性和可解释性进行了深入研究,目的在于确定最优建模策略。结果表明:(1)在CatBoost模型计算中,河流距离成为最关键的影响因子,其次是与地质条件、人类活动相关的因子;(2)不分级工况下,模型能够获得最高的AUC值,达到0.866;(3)相较于等间距法,自然断点法的划分策略展现出更佳的泛化能力,且模型预测性能随着分级数量的增加而增加;(4)沙普利加性解释法模型揭示了主要影响因子道路距离、河流距离、DEM和坡向对台风诱发滑坡的控制机制。研究成果能够加深对滑坡易发性的理解,提高滑坡预测的准确性和可靠性,为相关地区的防灾减灾工作提供科学依据。 展开更多
关键词 滑坡 易发性建模 可解释性 CatBoost模型 沙普利加性解释法模型 台风诱发滑坡
下载PDF
面向强化学习的可解释性研究综述
11
作者 曹宏业 刘潇 +4 位作者 董绍康 杨尚东 霍静 李文斌 高阳 《计算机学报》 EI CAS CSCD 北大核心 2024年第8期1853-1882,共30页
强化学习作为机器学习的一种范式,因其强大的策略试错学习能力,受到关注.随着深度学习的融入,强化学习方法在许多复杂的控制任务中取得了巨大成功.然而,深度强化学习网络作为黑盒模型,其缺乏可解释性所带来的不安全、不可控及难理解等... 强化学习作为机器学习的一种范式,因其强大的策略试错学习能力,受到关注.随着深度学习的融入,强化学习方法在许多复杂的控制任务中取得了巨大成功.然而,深度强化学习网络作为黑盒模型,其缺乏可解释性所带来的不安全、不可控及难理解等问题限制了强化学习在诸如自动驾驶、智慧医疗等关键领域中的发展.为了解决这一问题,科研人员开展了对强化学习可解释性的研究.然而,这些研究开展相对较晚,且缺少针对多智能体强化学习可解释性方法的系统性总结,同时,可解释性的定义存在人为主观性,导致系统性面向强化学习过程的可解释性研究较为困难.本文对当前强化学习的可解释性研究工作进行了全面的整理与总结.首先,对强化学习的可解释性进行定义并总结了相关评估方法.随后,基于马尔可夫决策过程,划分了行为级解释、特征级解释、奖励级解释及策略级解释四个类别.此外,在每个类别中,分析了单智能体及多智能体的策略解释方法,并特别关注可解释性研究中的人为因素,描述了人机交互式的解释方法.最后,对当前强化学习可解释性研究面临的挑战以及未来的研究方向进行总结与展望. 展开更多
关键词 强化学习 可解释性 机器学习 人工智能 马尔可夫决策过程
下载PDF
内容感知的可解释性路面病害检测模型
12
作者 李傲 葛永新 +2 位作者 刘慧君 杨春华 周修庄 《计算机研究与发展》 EI CSCD 北大核心 2024年第3期701-715,共15页
针对实际场景中高分辨路面图像难以直接作为现有卷积神经网络(convolutional neural network,CNN)的输入、现有预处理及下采样算法无法有效感知并保留原始路面图像中低占比的病害区域信息等问题,借助于可视化解释的技术手段,设计了一种... 针对实际场景中高分辨路面图像难以直接作为现有卷积神经网络(convolutional neural network,CNN)的输入、现有预处理及下采样算法无法有效感知并保留原始路面图像中低占比的病害区域信息等问题,借助于可视化解释的技术手段,设计了一种即插即用的图像内容自适应感知模块(adaptive perception module,APM),既平衡了高分辨路面图像与CNN输入限制,又能够自适应感知激活前景病害区域,从而实现高分辨路面图像中病害类型的快速准确检测,构建可信路面病害视觉检测软件系统.APM利用大卷积核和下采样残差操作降低原始图像分辨率并获取图像浅层特征表示;通过注意力机制自适应感知并激活图像中路面病害区域信息,过滤无关的背景信息.利用联合学习的方式,无需额外监督信息完成对APM的训练.通过可视化解释方法辅助选择和设计APM的具体结构,在最新公开数据集CQUBPMDD上的实验结果表明:APM相比于现有的图像预处理采样算法均有明显提升,分类准确率最高为84.47%;在CQU-BPDD上的实验结果及APM决策效果可视化分析表明APM具备良好的泛化性与鲁棒性.实验代码已开源:https://github.com/Li-Ao-Git/apm. 展开更多
关键词 路面病害检测 可解释性 自适应感知 注意力机制 联合学习
下载PDF
基于可解释性神经网络的界面面积浓度预测
13
作者 周钰浩 许汪涛 +3 位作者 刘丽 朱隆祥 张卢腾 潘良明 《核技术》 EI CAS CSCD 北大核心 2024年第8期89-97,共9页
界面面积浓度(Interfacial Area Concentration,IAC)是两相流动的封闭两流体模型中界面传递项的关键参数,用于表征气液界面传输能力的强弱。对界面面积浓度的建模预测通常有经验关联式和界面面积输运方程等方法,但这些方法都有较大的数... 界面面积浓度(Interfacial Area Concentration,IAC)是两相流动的封闭两流体模型中界面传递项的关键参数,用于表征气液界面传输能力的强弱。对界面面积浓度的建模预测通常有经验关联式和界面面积输运方程等方法,但这些方法都有较大的数据依赖性。而对神经网络模型增添可解释性可以为模型修正提供方向,严谨提升预测精度。为更好地预测两相流动的IAC,基于神经网络建立了IAC的预测模型,结合不同气泡行为、物理关系及统计分布并利用事后可解释性方法,对比分析了不同输入特征组合的神经网络模型预测能力;并通过神经网络每层的结构参数大小,分析输出比重挑选合适的数据预处理方法。通过事后可解释性分析得到空泡份额是IAC预测的重要因素,而对训练数据进行对数变换预处理能够显著提高模型对真实数据的预测能力。 展开更多
关键词 界面面积浓度 两相流 神经网络模型 事后可解释性
下载PDF
面向机器学习应用的可解释性需求分析框架
14
作者 裴忠一 刘璘 +1 位作者 王晨 王建民 《计算机研究与发展》 EI CSCD 北大核心 2024年第4期983-1002,共20页
基于大数据机器学习的智能软件研发过程需要综合运用软件工程、数据与领域知识工程、机器学习等多方面的知识和工具,涉及的研究主题和人员角色众多,技术实现手段复杂、研发难度大.面向智能软件的需求工程需要面对领域知识、业务知识、... 基于大数据机器学习的智能软件研发过程需要综合运用软件工程、数据与领域知识工程、机器学习等多方面的知识和工具,涉及的研究主题和人员角色众多,技术实现手段复杂、研发难度大.面向智能软件的需求工程需要面对领域知识、业务知识、数据科学交织带来的挑战.然而,如何将领域知识和端到端的机器学习技术恰当地融合到给定的业务流程之中,以及如何应对工业、医疗等高可信要求场景中的可解释性需求,仍是亟待探索的重要研究问题.调研了近年来面向机器学习应用的需求工程研究文献,对该领域的发展现状、核心问题和代表性方法进行综述.提出了面向机器学习应用的可解释性需求分析框架.基于该框架,通过一个工业智能应用案例分析了未来待研究的重要问题,展望了可行的研究路径. 展开更多
关键词 需求工程 机器学习 领域模型 工业工程 可解释性
下载PDF
光伏阵列故障诊断的可解释性智能集成方法
15
作者 陈泽 刘文泽 +2 位作者 王康德 余涛 黄展鸿 《电力自动化设备》 EI CSCD 北大核心 2024年第6期18-25,共8页
针对现有光伏阵列故障检测和诊断智能方法存在的泛化性不强、可解释性差的问题,提出了一种可解释性智能集成方法。对采集的光伏阵列输出时序电压、电流波形进行特征挖掘,并将多个已成熟应用于光伏故障诊断的智能算法作为不同基学习器与... 针对现有光伏阵列故障检测和诊断智能方法存在的泛化性不强、可解释性差的问题,提出了一种可解释性智能集成方法。对采集的光伏阵列输出时序电压、电流波形进行特征挖掘,并将多个已成熟应用于光伏故障诊断的智能算法作为不同基学习器与元学习器,构建结合不同智能算法优势且更具泛化性的Stacking集成学习模型;以沙普利可加性特征解释方法为总框架,并结合局部近似可解释性方法,对模型训练过程与结果进行解释分析,通过获取各特征的贡献、分析该集成模型的决策机制,并了解其如何进行诊断,提高其可靠度和可信度。算例实验结果表明,所提可解释性智能集成方法在不同规模数据集的测试中均实现了高精度的故障诊断,模型的可解释性结果表明由该智能集成模型建立的故障特征和诊断结果的映射遵循物理见解,增强了智能方法的可信度和透明性。 展开更多
关键词 光伏阵列 故障诊断 Stacking集成 可解释性智能方法 沙普利可加性特征解释方法
下载PDF
算法可解释性的价值及其法治化路径 被引量:4
16
作者 王海燕 《重庆社会科学》 CSSCI 北大核心 2024年第1期120-135,共16页
随着自主学习算法技术的纵深迭代,自动化决策已广泛嵌入人类社会的决策系统中。然而,由于其专业性和黑箱性,算法决策自动化对人类法律秩序构建的程序正当性及问责机制形成威胁,最终对人性尊严构成根本挑战。算法可解释性是将算法系统纳... 随着自主学习算法技术的纵深迭代,自动化决策已广泛嵌入人类社会的决策系统中。然而,由于其专业性和黑箱性,算法决策自动化对人类法律秩序构建的程序正当性及问责机制形成威胁,最终对人性尊严构成根本挑战。算法可解释性是将算法系统纳入社会规范系统约束的关键理念,其实现程度对维护法治秩序和保护被决策主体的权益至关重要。当下实现算法可解释性的主要制度依托包括设置比例化的透明度不同程度地打开黑箱、构筑多方协同审查机制落实责任主体、制度化直观关系保证“人在回路”。这些举措的落脚点在于维护算法技术的内在善。 展开更多
关键词 算法决策 算法可解释性 正当程序 问责制 人类尊严
下载PDF
基于逐步特征增广梯度提升的暂态功角稳定评估及可解释性分析
17
作者 刘旭 刘颂凯 +3 位作者 杨超 张磊 段雨舟 晏光辉 《现代电力》 北大核心 2024年第5期844-853,共10页
基于数据驱动的电力系统暂态功角稳定评估虽然可以提供较为准确的结果,但其评估结果缺乏可解释性,导致难以应用于工程实际中。针对该问题,提出一种基于逐步特征增广梯度提升(gradient boosting enhanced with step-wise feature augment... 基于数据驱动的电力系统暂态功角稳定评估虽然可以提供较为准确的结果,但其评估结果缺乏可解释性,导致难以应用于工程实际中。针对该问题,提出一种基于逐步特征增广梯度提升(gradient boosting enhanced with step-wise feature augmentation,AugBoost)的暂态功角稳定评估及可解释性分析方法。首先,通过训练AugBoost评估模型,建立电力系统输入特征与暂态功角稳定指标之间的映射关系;其次,将相量测量单元的实时量测数据传输到训练好的AugBoost评估模型中,提供实时评估结果;并根据沙普利值加性解释(Shapley additive explanations,SHAP)模型对评估结果和输入特征之间的关系进行解释,提高结果的可信度。最后,设计模型更新过程来提升评估模型面对电力系统运行工况变化的鲁棒性。在电力系统仿真软件PSS/E提供的23节点系统和1648节点系统上的仿真结果验证了所提方法的有效性。 展开更多
关键词 暂态功角稳定评估 逐步特征增广梯度提升 沙普利值加性解释 可解释性分析 模型更新
下载PDF
面向可解释性的软件缺陷预测主动学习方法
18
作者 王越 李勇 张文静 《现代电子技术》 北大核心 2024年第20期101-108,共8页
针对软件缺陷预测中数据标注代价较高及深度学习模型缺乏可解释性的问题,提出一种面向可解释性的软件缺陷预测主动学习方法。首先,基于主动学习技术,通过样本选择策略从目标项目中筛选出不确定性高的样本进行专家标注,并将这些标注样本... 针对软件缺陷预测中数据标注代价较高及深度学习模型缺乏可解释性的问题,提出一种面向可解释性的软件缺陷预测主动学习方法。首先,基于主动学习技术,通过样本选择策略从目标项目中筛选出不确定性高的样本进行专家标注,并将这些标注样本放入源项目中以训练预测器。其次,利用领域知识对选定样本进行扰动,构建局部数据集,并通过线性模型在该数据集上模拟数据选择策略的行为,以实现模型的可解释性。实验结果显示:该方法在数据标注方面的指标性能要优于传统的主动学习基准方法;同时,在可解释性方面,该方法的RMSE指标也均低于LIME、全局代理模型以及RuleFit,能较好地解释“黑盒”模型。该方法不仅可以有效提高软件缺陷数据的标注效率,还可以实现模型的可解释性。 展开更多
关键词 软件缺陷预测 主动学习 可解释性 数据标注 数据选择策略 深度学习
下载PDF
考虑易用性和可解释性的自组织映射-即时学习风险预测框架
19
作者 马潇驰 陆建 +1 位作者 霍宗鑫 夏萧菡 《西安交通大学学报》 EI CAS CSCD 北大核心 2024年第5期212-220,共9页
为提高风险预测系统的易用性和可解释性,提出基于自组织映射网络(SOM)改进的即时学习(JITL)风险预测框架。首先,应用SOM对数据样本进行聚类,并对聚类特征进行解释。进而,通过基于聚类结果的样本选择算法构建待测数据的相似样本集,在线... 为提高风险预测系统的易用性和可解释性,提出基于自组织映射网络(SOM)改进的即时学习(JITL)风险预测框架。首先,应用SOM对数据样本进行聚类,并对聚类特征进行解释。进而,通过基于聚类结果的样本选择算法构建待测数据的相似样本集,在线上调用作为基学习器的支持向量机(SVM)进行建模并输出风险预测结果。最后,采用一个交通事故数据集对风险模型的性能进行测试,检验其精度、易用性和可解释性。结果表明:采用SOM-JITL策略的SVM模型,受试者工作状况曲线面积指标达到0.720,相比不使用该策略的传统SVM模型提高17.5%,精度较高;SOM-JITL模型构建所需参数调节工作少,具有较好的易用性;此外,SOM聚类结果准确识别出处于交通拥堵等高风险场景,与现实场景一致,具有可解释性。综上,SOM-JITL策略能有效提高基学习器的性能,达到精度、可解释性和易用性的平衡,有助于以低成本大规模推广风险预测系统。 展开更多
关键词 机器学习 风险预测 易用性 可解释性 即时学习 自组织映射
下载PDF
人脸表情识别可解释性研究综述
20
作者 张淼萱 张洪刚 《计算机学报》 EI CAS CSCD 北大核心 2024年第12期2819-2851,共33页
近年来,人脸表情识别(Facial Expression Recognition,FER)被广泛应用于医疗、社交机器人、通信、安全等诸多领域.与此同时,为加深研究者对模型本质的认识,确保模型的公平性、隐私保护性与鲁棒性,越来越多的研究者关注表情识别可解释性... 近年来,人脸表情识别(Facial Expression Recognition,FER)被广泛应用于医疗、社交机器人、通信、安全等诸多领域.与此同时,为加深研究者对模型本质的认识,确保模型的公平性、隐私保护性与鲁棒性,越来越多的研究者关注表情识别可解释性的研究.本文依据结果可解释、机理可解释、模型可解释的分类原则,对表情识别中的可解释性研究方法进行了分类与总结.具体而言,结果可解释表情识别主要包括基于文本描述和人脸基本结构的方法.机理可解释方法主要研究了表情识别中的注意力机制,以及基于特征解耦和概念学习方法的可解释方法.模型可解释方法主要探究了可解释性分类方法.最后,对表情识别可解释性研究进行了对比与分析,并对未来的发展方向进行了讨论与展望,包括复杂表情的可解释性、多模态情绪识别的可解释性、大模型表情与情绪识别的可解释性以及基于可解释性提升泛化能力四个方面.本文旨在为感兴趣的研究人员提供人脸表情识别可解释性问题研究现状的整理与分析,推动该领域的进一步发展. 展开更多
关键词 人脸表情识别 可解释性 计算机视觉 情感计算 机器学习
下载PDF
上一页 1 2 36 下一页 到第
使用帮助 返回顶部