期刊文献+
共找到69篇文章
< 1 2 4 >
每页显示 20 50 100
融合可解释机器学习的成品汽油调和配方质量预测评价与致因分析
1
作者 李炜 郑明杰 +1 位作者 李亚洁 梁成龙 《石油学报(石油加工)》 EI CAS CSCD 北大核心 2024年第1期126-136,共11页
受成品汽油调和配方需“先验”评价与修正的驱动,本研究将轻量级梯度提升树(LightGBM)与可解释机器学习(SHAP)方法相结合,兼顾复杂模型精度高与后验SHAP可解释性强的各自优势,提出了一种调和配方质量预测评价及致因分析方法。该方法先... 受成品汽油调和配方需“先验”评价与修正的驱动,本研究将轻量级梯度提升树(LightGBM)与可解释机器学习(SHAP)方法相结合,兼顾复杂模型精度高与后验SHAP可解释性强的各自优势,提出了一种调和配方质量预测评价及致因分析方法。该方法先引用改进遗传算法(IGA)优化LightGBM的超参数,建立了可同时预测成品汽油性能和环保指标的模型,并结合汽油国ⅥA标准与企业生产实际制定了配方质量评价标准,实现配方“先验”评价;再基于SHAP的全局和局部致因分析,对缺陷配方给出了易于操作的单变量定性修正建议。实验结果表明:相比于传统BP网络和随机森林(RF)、以及采用随机搜索和GA优化参数的LightGBM等模型,IGA_LightGBM模型可得到更全面和精准的预测指标,SHAP致因分析可给出契合实际的修正建议。该方法是智能算法代替人工的有益探索。 展开更多
关键词 成品汽油调和 配方质量评价 解释机器学习 预测建模 致因分析 参数优化
下载PDF
可解释机器学习在油气领域人工智能中的研究进展与应用展望
2
作者 闵超 文国权 +2 位作者 李小刚 赵大志 李昆成 《天然气工业》 EI CAS CSCD 北大核心 2024年第9期114-126,共13页
人工智能作为战略性新兴产业及新质生产力正迅速地渗透入油气领域,并有望成为行业发展的新引擎和制高点。“黑盒”的机器学习模型缺乏透明度和可解释性,导致现有机器学习方法在油气领域的认可度和信任度不高,制约了以机器学习为核心的... 人工智能作为战略性新兴产业及新质生产力正迅速地渗透入油气领域,并有望成为行业发展的新引擎和制高点。“黑盒”的机器学习模型缺乏透明度和可解释性,导致现有机器学习方法在油气领域的认可度和信任度不高,制约了以机器学习为核心的人工智能在油气田中的融合和发展。为此,系统介绍了可解释机器学习方法在油气田勘探开发过程的研究现状,阐述了机器学习模型的可解释性是促进油气领域人工智能大规模应用的关键,以及事后可解释方法在油气机器学习方法上的局限性,并对技术的应用进行了展望。研究结果表明:(1)利用Shapley加性解释(SHAP)和模型无关局部解释(LIME)等事后可解释方法进行煤层气产能主控因素实例验证,指出了可解释的油气田特征指标还不足以完全指导可解释模型的构建和分析,需要基于本质可解释思路建立符合油气田勘探开发自身特点的本质可解释机器学习方法;(2)利用机理模型、因果推断和反事实解释等本质可解释方法,分析油气田数据和模型参数之间的因果关系,构建了本质可解释机器学习方法;(3)选取典型煤层气压裂数据进行产能预测实例验证,发现因果推断能有效挖掘地质参数、施工参数和产能之间的本质关系,且基于因果关系建立的机器学习模型可以实现预测泛化性能提升。结论认为,基于事后可解释和本质可解释机器学习方法不仅是未来油气领域人工智能发展的必然趋势,而且是解决人工智能在油气领域现场落地的“瓶颈”问题及关键技术。 展开更多
关键词 油气田勘探开发 人工智能 机器学习 解释机器学习 事后可解释 本质可解释
下载PDF
基于可解释机器学习框架的列车乘车区段客流分布预测方法
3
作者 孙国锋 景云 +2 位作者 李和壁 田志强 田小鹏 《交通运输系统工程与信息》 EI CSCD 北大核心 2024年第2期249-262,共14页
为解释客运产品特征对列车乘车区段客流分布预测的影响,本文提出一种基于可解释机器学习框架的高速铁路列车乘车区段客流分布预测方法。首先,提出基于梯度提升树模型的高速铁路列车乘车区段客流分布预测框架,构建不同梯度提升树模型(GBD... 为解释客运产品特征对列车乘车区段客流分布预测的影响,本文提出一种基于可解释机器学习框架的高速铁路列车乘车区段客流分布预测方法。首先,提出基于梯度提升树模型的高速铁路列车乘车区段客流分布预测框架,构建不同梯度提升树模型(GBDT、XGBoost、LightGBM及CatBoost)的高速铁路列车乘车区段客流分布预测模型;其次,计算特征贡献重要度,基于SHAP(SHapley Additive exPlanations)方法实现特征变量优化,揭示单一特征和交互特征与列车乘车区段客流分布预测的非线性关系。北京南—上海虹桥间列车客流分布预测结果表明:4种模型可精准预测客流分布结果,GBDT,XGBoost,LightGBM及CatBoost在测试集的决定系数分别为0.9664,0.9601,0.9680及0.9715;特征优化后,按贡献重要度排序依次为标杆车,票价,旅行时间,日期,星期,车次及出发时间;特征优化后,CatBoost-7模型在验证集中的决定系数为0.9458;日期和标杆车对客流分布预测呈现非线性正相关,旅行时间对客流分布预测呈现非线性负相关,低旅行时间、高票价及出发时间整点的标杆车对客流分布预测产生正向影响。本文研究结果能够为高速铁路客运产品设计提供一定参考价值。 展开更多
关键词 铁路运输 客流分布预测 解释机器学习 列车乘车区段 非线性关系
下载PDF
基于规则集成的可解释机器学习算法及应用 被引量:1
4
作者 闵继源 鲁统宇 +1 位作者 任婷婷 陈汝昊 《计算机科学与探索》 CSCD 北大核心 2024年第6期1476-1490,共15页
机器学习算法因其良好的预测性能已经取得了巨大的成功,但在对模型可解释性有着较高需求的领域,其适用性受到了限制。针对机器学习算法缺乏可解释性的缺点,基于规则集成思想提出一种新的可解释机器学习算法,称之为集成树惩罚逻辑规则回... 机器学习算法因其良好的预测性能已经取得了巨大的成功,但在对模型可解释性有着较高需求的领域,其适用性受到了限制。针对机器学习算法缺乏可解释性的缺点,基于规则集成思想提出一种新的可解释机器学习算法,称之为集成树惩罚逻辑规则回归,它能以较小的结构复杂度实现与集成树算法相当的预测性能,并且保留了逻辑回归的解释效果。首先,从随机森林、XGBoost等集成树中提取分枝,并将其转换为逻辑规则。其次,对规则集进行剪枝和去重处理,以得到精简的规则集。最后,将规则作为变量融入逻辑回归中,并以Lasso算法进行复杂度控制。以企业风险预警作为实例,与多种机器学习算法进行实验对比,结果表明此算法不仅能很好地继承集成树的违约判别能力,在各个分类指标上均超越了大多数机器学习算法,而且可以通过规则给出企业风险指标的阈值,便于企业进行风险管理。进一步地,根据此算法制作企业信用评分,验证了它的广泛适用性,得到的评分符合客观规律且具有区分度,然后通过三个公开数据集验证了模型预测性能的稳健性。 展开更多
关键词 解释机器学习 规则学习 非线性回归 集成树 风险预警
下载PDF
可解释机器学习在电网调控领域中的应用
5
作者 庞传军 王珅 余建明 《电力信息与通信技术》 2024年第5期1-9,共9页
数据驱动的机器学习是新一代人工智能的核心技术,尽管该技术已经在电网调控领域取得了显著成果,但是可解释性差,阻碍了其在对安全可靠性要求极高的电网调控领域的实际工程应用。因此,提升电网调控领域机器学习技术的可解释性对提高其实... 数据驱动的机器学习是新一代人工智能的核心技术,尽管该技术已经在电网调控领域取得了显著成果,但是可解释性差,阻碍了其在对安全可靠性要求极高的电网调控领域的实际工程应用。因此,提升电网调控领域机器学习技术的可解释性对提高其实用性至关重要。首先,从电网调度运行人员的角度,分析了机器学习可解释性的定义、目标和意义;然后,提出考虑可解释性的机器学习在电网调控领域应用的流程,介绍了典型的机器学习解释技术及其在电力系统预测和稳定评估场景的应用,通过实际案例验证了该技术在电网调控领域应用的可行性;最后,对电网调控领域机器学习可解释技术面临的挑战进行了分析和展望。通过该研究,为解决电网调控领域机器学习应用的不可解释问题提供思路和参考,进一步促进机器学习技术在该领域的实际工程应用。 展开更多
关键词 人工智能 机器学习 电网调度运行 解释机器学习 数据驱动方法 负荷预测 电力系统稳定评估
下载PDF
基于贝叶斯方法与可解释机器学习的负荷特性分析与预测 被引量:6
6
作者 郑心仕 梁寿愚 +2 位作者 苏晓 王浩 程国鑫 《电力系统自动化》 EI CSCD 北大核心 2023年第13期56-68,共13页
使用机器学习模型和方法进行短期负荷预测,虽能提升负荷预测的整体精度,但在极端天气、节假日等小样本预测场景中,对比基于专家经验的人工预测无明显优势。为充分结合预测业务人员的经验知识与机器学习的推理泛化能力,提出了一种基于贝... 使用机器学习模型和方法进行短期负荷预测,虽能提升负荷预测的整体精度,但在极端天气、节假日等小样本预测场景中,对比基于专家经验的人工预测无明显优势。为充分结合预测业务人员的经验知识与机器学习的推理泛化能力,提出了一种基于贝叶斯时变系数(BTVC)与CatBoost模型的可解释负荷预测框架。首先,结合数据与专家知识,构建BTVC模型进行预测,获得各影响因子、趋势及周期因素的负荷分量。其次,将上述结果与常规特征进行组合,作为CatBoost回归模型的输入,进行最终预测。然后,使用事后模型解释框架(SHAP)进行归因分析,框架输出的定量关系可供负荷预测业务人员参考,使其开发出更有效的特征,进一步提高预测效果。最后,以某地区实际电网负荷数据为例,验证所提负荷预测与结果分析框架的有效性。 展开更多
关键词 短期负荷预测 负荷特性分析 贝叶斯时序模型 解释机器学习 集成学习
下载PDF
居民对自动驾驶汽车的偏好:基于可解释机器学习 被引量:1
7
作者 仲浩天 吴文君 《世界建筑》 2023年第7期24-25,共2页
新兴技术正在塑造城市和日常生活的同时,技术进步也可能加剧现有或带来新的不平等。本文以自动驾驶汽车为例,介绍了从交叉性视角出发的机器学习分析范式,并基于北京市居民对该技术偏好的试点调查,利用可解释机器学习—迭代随机森林模型... 新兴技术正在塑造城市和日常生活的同时,技术进步也可能加剧现有或带来新的不平等。本文以自动驾驶汽车为例,介绍了从交叉性视角出发的机器学习分析范式,并基于北京市居民对该技术偏好的试点调查,利用可解释机器学习—迭代随机森林模型,初步探究了个体多维特征之间相互交叉、建构所产生的行为偏好机制。结果表明,结合交叉性视角和可解释机器学习有效打破了传统方法论的局限,为推动新兴技术的公平转型提供了可操作性的分析框架。 展开更多
关键词 自动驾驶汽车 公平演进 交叉性视角 解释机器学习
下载PDF
基于可解释机器学习的神经网络软剪枝策略
8
作者 李惠原 徐奕 徐国整 《信息技术》 2023年第7期107-111,共5页
软剪枝是重要的神经网络剪枝策略,但该策略通常只考虑滤波器参数大小或参数矩阵在空间的分布,忽略了参数编码的语义信息,忽略了滤波器参数与数据的紧密联系。为此,提出一种基于可解释机器学习的神经网络软剪枝策略,该策略通过结合可解... 软剪枝是重要的神经网络剪枝策略,但该策略通常只考虑滤波器参数大小或参数矩阵在空间的分布,忽略了参数编码的语义信息,忽略了滤波器参数与数据的紧密联系。为此,提出一种基于可解释机器学习的神经网络软剪枝策略,该策略通过结合可解释机器学习方法,分析滤波器对数据内容理解的重要程度,以该重要程度为指标进行滤波器的排序和剪枝。实验结果表明,该策略在VGG、ResNet模型、CIFAR10通用数据集上均取得了较好的剪枝效果,并具有可解释性,可充分挖掘滤波器参数与图像信息之间的相关性分布。 展开更多
关键词 软剪枝 解释机器学习 模型剪枝 模型压缩
下载PDF
基于可解释机器学习的信用债违约研究 被引量:2
9
作者 徐舒玥 曹艳华 《科学决策》 2023年第5期190-200,共11页
为解决传统信用风险预测模型的非均衡样本识别不足问题,利用过采样方法和机器学习算法,提升信用债违约预测模型的准确率及稳定性。引入盈利能力、现金流量、营运能力、资本结构、偿债能力5类财务指标和非财务指标,运用SMOTE、Borderline... 为解决传统信用风险预测模型的非均衡样本识别不足问题,利用过采样方法和机器学习算法,提升信用债违约预测模型的准确率及稳定性。引入盈利能力、现金流量、营运能力、资本结构、偿债能力5类财务指标和非财务指标,运用SMOTE、Borderline SMOTE、ADASYN方法解决样本不均衡问题,通过逻辑回归、支持向量机、随机森林、XGBoost进行风险识别。结论:对于非均衡信用债违约样本,1000次有放回bootstrap重复抽样下ADASYN-RF模型的AUC、Recall优于LR、SVM和RF模型;ADASYN-SVM模型违约样本实际Recall较不使用过采样法提升36.86个百分点。引入可解释性机器学习方法,发现带息债务/全部投入资本、地方财政收入/债务存量、资产负债率等是信用债违约的重要影响因素。 展开更多
关键词 信用债违约风险 非平衡样本 解释机器学习
下载PDF
基于可解释机器学习框架的快速路立交出口风险预测及致因解析 被引量:5
10
作者 赵晓华 亓航 +3 位作者 姚莹 郭淼 国景枫 张云龙 《东南大学学报(自然科学版)》 EI CAS CSCD 北大核心 2022年第1期152-161,共10页
为实现城市快速路立交出口安全风险防控,提升城市道路整体安全性,对快速路立交出口风险水平进行预测,并探究运行状态、控制设施、道路属性、天气等因素对立交出口安全风险的影响.基于导航数据和实地调查数据,以交通秩序指数作为事故替... 为实现城市快速路立交出口安全风险防控,提升城市道路整体安全性,对快速路立交出口风险水平进行预测,并探究运行状态、控制设施、道路属性、天气等因素对立交出口安全风险的影响.基于导航数据和实地调查数据,以交通秩序指数作为事故替代指标,采用极限梯度提升(XGBoost)算法构建交通秩序预测模型,并利用可解释机器学习框架SHAP解析安全风险致因.结果表明:XGboost算法能够精准预测立交出口安全风险,准确率93.69%,精确率93.73%,召回率93.69%;拥堵指数是立交出口安全风险的重要影响因素;缓解拥堵,减少交通分流合流以及降低天气的影响对提升道路安全均有积极效应;不同拥堵状态下的预告标志数或车道数对交通秩序指数具有差异化影响. 展开更多
关键词 快速路立交出口 交通安全风险 风险预测 致因解析 解释机器学习
下载PDF
可解释机器学习方法在疾病预测中的应用:脓毒血症患者死亡风险研究 被引量:3
11
作者 杨丰春 郑思 李姣 《首都医科大学学报》 CAS 北大核心 2022年第4期610-617,共8页
目的探索可解释机器学习方法在疾病预测中的应用。方法本研究以脓毒血症死亡风险预测为例,从重症监护医学数据库(Medical Information Mart for Intensive Care,MIMIC)-Ⅳ中采集符合纳排标准的19903例脓毒血症(sepsis-3)患者的临床数据... 目的探索可解释机器学习方法在疾病预测中的应用。方法本研究以脓毒血症死亡风险预测为例,从重症监护医学数据库(Medical Information Mart for Intensive Care,MIMIC)-Ⅳ中采集符合纳排标准的19903例脓毒血症(sepsis-3)患者的临床数据,利用决策树、逻辑回归、随机森林、XGBoost、轻量梯度提升机(light gradient boosting machine,LightGBM)模型分别构建脓毒血症死亡预测模型。在此基础上,利用全局可解释方法(特征重要性、部分依赖图、个体条件期望、全局代理模型)和局部可解释方法(局部代理模型和Shapely值)对复杂机器学习模型进行解释,探索影响脓毒血症患者预后的危险因素。结果解释性差的机器学习模型的预测性能[模型LightGBM、随机森林、XGBoost的曲线下面积(area under curve,AUC)值分别为0.913、0.892、0.872]高于具有内在解释性的模型(逻辑回归模型AUC=0.779,决策树模型AUC=0.791),并利用全局解释性方法、局部可解释性方法两种类型的解释方法对机器学习模型决策过程进行解释。结论利用全局解释性方法可以解释在整个特征空间内机器学习模型的响应趋势,利用局部可解释性方法可以解释机器学习模型对特定病例的决策过程。 展开更多
关键词 解释机器学习 疾病预测 脓毒血症
下载PDF
结合梯度提升树算法与可解释机器学习模型SHAP的抑郁症影响因素研究
12
作者 聂卉 吴晓燕 《数据分析与知识发现》 EI CSCD 北大核心 2024年第3期41-52,共12页
【目的】本研究旨在探讨构建抑郁严重度预测模型及其解释性问题,通过分析互联网用户生成的内容,进一步发展抑郁症风险预测研究,从而提高抑郁症自动检测模型的可靠性和实用性。【方法】通过收集“好大夫在线”平台上的抑郁症医疗咨询文... 【目的】本研究旨在探讨构建抑郁严重度预测模型及其解释性问题,通过分析互联网用户生成的内容,进一步发展抑郁症风险预测研究,从而提高抑郁症自动检测模型的可靠性和实用性。【方法】通过收集“好大夫在线”平台上的抑郁症医疗咨询文本记录,构建了一个语料库。利用心理学词典,从中提取了患者的心理特征,并采用梯度提升树算法预测患者的病情,同时引入可解释机器学习方法SHAP解读模型,借助SHAP独特的可视化图表剖析患者年龄、性别、认知、情感、感知、社会家庭及个人得失与抑郁症发生之间的复杂关系。【结果】抑郁症患者心理状态能反馈患者病况,利用从患者问诊记录中提取的心理特征能够有效检测重度抑郁,准确率达到86%。可解释机器学习模型SHAP解释了模型的预测结果,揭示出患者各层面心理特征对抑郁症发生产生的多重效应。【局限】受语料集所限,仅利用单次问诊记录对抑郁程度做预测;而模型特征基于心理学词典,更多与抑郁症发生风险有关的要素可纳入建模考虑中。【结论】影响抑郁症产生及发展的因素复杂。个体差异致使各项特征对于疾病预测产生不同效应。构建抑郁症的自动诊断模型,不仅要关注模型的精准度,更需增强对模型预测的理解。 展开更多
关键词 抑郁症预测 在线用户生成内容 解释机器学习 梯度提升树算法
原文传递
可解释机器学习在信息资源管理领域的应用研究综述 被引量:2
13
作者 刘智锋 王继民 《数据分析与知识发现》 EI CSCD 北大核心 2024年第1期16-29,共14页
【目的】对可解释机器学习方法及其在信息资源管理领域的应用研究进行梳理和总结,发现不足并做出展望。【文献范围】使用可解释机器学习的相关关键词构建检索式,在中国知网和Web of Science等平台中检索,根据纳入排除标准,共获取44篇相... 【目的】对可解释机器学习方法及其在信息资源管理领域的应用研究进行梳理和总结,发现不足并做出展望。【文献范围】使用可解释机器学习的相关关键词构建检索式,在中国知网和Web of Science等平台中检索,根据纳入排除标准,共获取44篇相关文献进行评述。【方法】从机器学习流程出发,构建一般性的可解释机器学习框架,重点梳理可解释机器学习方法分类,然后对可解释机器学习在信息资源管理领域的应用现状进行归纳总结。【结果】一般性的可解释机器学习框架包含事前解释、可解释模型以及事后解释三个不同的模块;事后可解释方法在健康信息学、网络舆情、科学计量学以及社交网络用户行为等领域具有广泛的应用,其中常用的方法为SHAP和特征重要性分析;现有研究存在应用方法单一和融合不足、因果关系探究不够、针对多源异构数据的解释不足以及领域应用有待拓宽等问题。【局限】本文重点关注可解释机器学习的应用及存在的不足,未对算法原理进行深入阐述。【结论】未来研究应加强可解释机器学习方法的融合使用,探究基于因果机器学习的可解释机器学习,引入面向多源异构数据的可解释机器学习方法,拓宽在信息推荐、信息检索和信息计量等多个领域的应用。 展开更多
关键词 解释机器学习 SHAP 信息资源管理 研究进展
原文传递
基于LightGBM与SHAP的空腔积水深度可解释性机器学习模型
14
作者 李珊珊 孙朝阳 李国栋 《力学季刊》 CAS CSCD 北大核心 2024年第2期442-453,共12页
传统的机器学习模型主要围绕如何提升模型预测精度进行研究,从而忽略了预测结果的可解释性.本研究基于LightGBM (Light Gradient Boosting Machine)建立了预测掺气设施空腔积水深度的黑箱模型,与常用的机器学习模型如RF (Random Forest)... 传统的机器学习模型主要围绕如何提升模型预测精度进行研究,从而忽略了预测结果的可解释性.本研究基于LightGBM (Light Gradient Boosting Machine)建立了预测掺气设施空腔积水深度的黑箱模型,与常用的机器学习模型如RF (Random Forest)、SVM (Support Vector Machine)及XGBoost (Extreme Gradient Boosting)对比结果表明LightGBM拥有较高的预测精度.进一步通过贝叶斯优化技术对LightGBM的四个超参数进行优化,较大程度上提升了模型的R^(2)(决定系数)得分.应用SHAP (Shapley Additive Explanation)事后解释方法对LightGBM的预测结果进行全局解释和局部解释.全局解释结果表明:流速、水舌冲击角、坎高及流量是影响空腔积水形成的主要因素,特征交互解释可以用来解释特征之间的复杂非线性关系,局部解释则可以显示单个样本各特征的影响大小.研究建立的基于LightGBM-SHAP的空腔积水深度可解释性机器学习模型在掺气设施体型优化及模型试验方案优化方面有很好的应用前景. 展开更多
关键词 解释机器学习 空腔积水 贝叶斯优化 LightGBM SHAP
下载PDF
基于可解释性机器学习的ECD敏感性分析与预测技术 被引量:1
15
作者 马磊 周波 +4 位作者 张宁俊 杨恒 蔡新树 刘征 徐同台 《钻井液与完井液》 CAS 北大核心 2023年第5期563-570,共8页
当量钻井液循环密度(ECD)计算过于繁琐耗时,且其敏感性规律尚未得到明确认识。为此,采用ProHydraulic软件对克深区带的1928个数据点进行分析,以确定ECD的理论值,并建立了相关的特征参数。同时,利用可解释性机器学习方法SHAP对钻井液特... 当量钻井液循环密度(ECD)计算过于繁琐耗时,且其敏感性规律尚未得到明确认识。为此,采用ProHydraulic软件对克深区带的1928个数据点进行分析,以确定ECD的理论值,并建立了相关的特征参数。同时,利用可解释性机器学习方法SHAP对钻井液特性、钻进参数和环空容积等关键因素进行了敏感性分析。最终,利用线性回归构建克深区带计算ECD的经验公式,涵盖了12个主要特征参数。结果表明,该模型表现优异,测试集决定系数达到0.963,平均绝对误差仅为0.04,为实际工程应用推出了简明、高效的经验公式。 展开更多
关键词 ECD 敏感性分析 解释机器学习 线性回归模型
下载PDF
从工业机器到解释机器——国外马克思机器论研究的时代主题变换
16
作者 朱春艳 高琴 《国外理论动态》 北大核心 2023年第1期69-76,共8页
马克思的机器理论构成其资本主义批判的关键一环。苏联马克思主义与早期西方马克思主义在机械化的性质问题上表现出对立的态度。1950年代后,随着新一轮科学技术革命的兴起,国外学界对马克思机器论的研究呈现出多元化的立场,其中,劳动过... 马克思的机器理论构成其资本主义批判的关键一环。苏联马克思主义与早期西方马克思主义在机械化的性质问题上表现出对立的态度。1950年代后,随着新一轮科学技术革命的兴起,国外学界对马克思机器论的研究呈现出多元化的立场,其中,劳动过程理论和自治主义的马克思主义关于自动化机器应用的立场体现出“控制”和“解放”等不同倾向。进入21世纪以来,数字技术的快速发展使得机器的应用从工业生产领域延伸至日常生活领域。对此,西方的加速主义理论和解释机器理论在从“工业机器”到“解释机器”的主题转换中,提出了解决数字化矛盾的不同路径,体现出马克思的机器理论在当代资本主义批判中的强大阐释力。 展开更多
关键词 马克思 机器 数字资本主义 解释机器
原文传递
基于可解释性深度学习的物联网水质监测数据异常检测
17
作者 李永飞 李铭洋 +1 位作者 常鑫 曹可欣 《计算机工程》 CAS CSCD 北大核心 2024年第6期179-187,共9页
随着物联网技术的发展和应用范围的扩大,物联网设备和传感器的数量和种类也在不断增加。物联网水质传感器在生态监测与保护领域起着至关重要的作用,针对物联网水质传感器采集的监测数据中数据量大、维度高、无标注等问题,提出一种基于... 随着物联网技术的发展和应用范围的扩大,物联网设备和传感器的数量和种类也在不断增加。物联网水质传感器在生态监测与保护领域起着至关重要的作用,针对物联网水质传感器采集的监测数据中数据量大、维度高、无标注等问题,提出一种基于可解释性深度学习的无监督异常数据检测算法。使用自动编码器(AE)和SHAP算法对多维水质数据集进行异常检测。通过训练自动编码器模型,标记重建误差较大的数据,使用SHAP解释自动编码器并计算被标记数据中各数据特征的重要性。基于这些特征的重要性,确定最终的异常值,从而实现对水质监测数据的异常检测。在物联网水质监测数据集上的实验结果表明,该算法能有效检测出异常数据,F1值为0.875,性能优于当前无监督异常检测领域常用算法。该算法对于处理物联网水质监测数据具有实际应用价值,此外,还可以应用于其他领域的海量物联网监测数据的异常检测,例如气象、环境等领域。 展开更多
关键词 深度学习 自动编码器 异常检测 解释机器学习 无监督学习
下载PDF
预测重症缺血性脑卒中死亡风险的模型:基于内在可解释性机器学习方法 被引量:1
18
作者 罗枭 程义 +1 位作者 吴骋 贺佳 《南方医科大学学报》 CAS CSCD 北大核心 2023年第7期1241-1247,共7页
目的构建一种内在可解释性机器学习模型,即可解释提升机模型(EBM)来预测重症缺血性脑卒中患者一年死亡风险。方法使用2008~2019年MIMIC-IV2.0数据库中符合纳排标准的2369例重症缺血性脑卒中患者资料,将数据集随机分成训练集(80%)和测试... 目的构建一种内在可解释性机器学习模型,即可解释提升机模型(EBM)来预测重症缺血性脑卒中患者一年死亡风险。方法使用2008~2019年MIMIC-IV2.0数据库中符合纳排标准的2369例重症缺血性脑卒中患者资料,将数据集随机分成训练集(80%)和测试集(20%),构建可解释提升机模型评估疾病预后。通过计算受试者工作特征曲线下面积(AUC)来衡量预测效果,使用校准曲线及布里尔分数(Brier score)评价模型的校准程度,并绘制决策曲线反映临床净收益。结果本研究所构建的可解释提升机具有良好的区分度、校准度和净收益率,其中模型预测重症缺血性脑卒中预后不良的AUC为0.857[95%CI(0.831,0.887)];校准曲线分析结果显示,可解释提升机模型的校准曲线最接近于理想曲线;决策曲线分析结果显示,当该模型预测概率阈值为0.10~0.80时,其预测净获益率最大。基于可解释提升机模型的前5个独立预测变量为年龄、SOFA评分、平均心率、机械通气、平均呼吸频率,其重要性得分从0.179~0.370。结论建立了一个可解释提升机模型,该模型应用于预测重症缺血性脑卒中患者一年内死亡风险具有良好的表现,通过模型可解释性能帮助临床医生更好地理解结果背后的原因。 展开更多
关键词 重症缺血性脑卒中 内在可解释机器学习 解释提升机 死亡预测
下载PDF
从SHAP到概率——可解释性机器学习在糖尿病视网膜病变靶向脂质组学研究中的应用 被引量:1
19
作者 金东镇 郭城楠 +7 位作者 彭芳 赵淑珍 李慧慧 夏喆铮 车明珠 王亚楠 张泽杰 毛广运 《中国卫生统计》 CSCD 北大核心 2023年第4期511-515,共5页
目的基于可解释性机器学习算法构建糖尿病视网膜病病变(diabetic retinopathy,DR)的早期识别模型,并探讨SHAP(SHapley Additive exPlanations)在脂质组学数据中的应用。方法基于本项目组的DR靶向脂质组学数据,通过可解释性机器学习的方... 目的基于可解释性机器学习算法构建糖尿病视网膜病病变(diabetic retinopathy,DR)的早期识别模型,并探讨SHAP(SHapley Additive exPlanations)在脂质组学数据中的应用。方法基于本项目组的DR靶向脂质组学数据,通过可解释性机器学习的方法进行特征筛选;在建立糖尿病视网膜病变的早期识别模型后,通过全局、特征和个体三个层面对模型进行解释,并将SHAP值转换成概率以增强可解释的能力。结果本研究筛选出了5种内源性脂质代谢物,构建了一个性能较为优秀的糖尿病视网膜病变的早期识别模型,并成功使用SHAP及概率解锁了模型。结论脂质代谢物质可以应用于糖尿病视网膜病变的早期识别;SHAP在进行黑盒模型的解锁时表现出色,且有较高的实践应用价值。 展开更多
关键词 脂质组学 解释机器学习 糖尿病视网膜病变 SHAP
下载PDF
25CrMo4合金疲劳寿命预测局部可解释性分析
20
作者 蔡国栋 《冶金与材料》 2024年第7期43-45,共3页
在使用机器学习的方法对25CrMo4合金进行疲劳寿命预测时,特征变量对疲劳寿命的决策行为一直是关注的重点。基于此,以89组25CrMo4合金高周循环对称疲劳试验样本作为研究对象,使用XGBoost算法预测其疲劳寿命,再使用LIME(Local Interpretab... 在使用机器学习的方法对25CrMo4合金进行疲劳寿命预测时,特征变量对疲劳寿命的决策行为一直是关注的重点。基于此,以89组25CrMo4合金高周循环对称疲劳试验样本作为研究对象,使用XGBoost算法预测其疲劳寿命,再使用LIME(Local Interpretable Model-agnostic Explanations)及其改进方法(ElasticNet-LIME)分析各特征变量在不同数值范围内对疲劳寿命的正负增益。结果表明,经过微喷丸强化后25CrMo4合金表面残余应力减小,表面粗糙度增大,疲劳寿命增大,ElasticNet-LIME对此判断比LIME更为合理。研究结果可为25CrMo4合金疲劳性能优化提供依据。 展开更多
关键词 25CrMo4 LIME 机器学习可解释性分析
下载PDF
上一页 1 2 4 下一页 到第
使用帮助 返回顶部