-
题名人工智能可解释性评估研究综述
被引量:7
- 1
-
-
作者
李瑶
左兴权
王春露
黄海
张修建
-
机构
北京邮电大学网络空间安全学院
北京邮电大学计算机学院
可信分布式计算与服务教育部重点实验室
北京航天计量测试技术研究所
国家市场监管重点实验室(人工智能计量测试与标准)
-
出处
《导航定位与授时》
CSCD
2022年第6期13-24,共12页
-
文摘
近年来,可解释人工智能(XAI)发展迅速,成为当前人工智能领域的研究热点,已出现多种人工智能解释方法。如何量化评估XAI的可解释性以及解释方法的效果,对研究XAI具有重要意义。XAI的可解释性评估涉及主、客观因素,是一个复杂且有挑战性的工作。综述了XAI的可解释性评估方法,首先,介绍了XAI的可解释性及其评估的概念和分类;其次,总结和梳理了一些可解释性的特性;在此基础上,从可解释性评估方法和可解释性评估框架两方面,综述和分析了当前可解释性评估工作;最后,总结了当前人工智能可解释性评估研究的不足,并展望了其未来发展方向。
-
关键词
可解释性评估
人工智能可解释性
主观评估
客观评估
评估方法
神经网络
深度学习
-
Keywords
Interpretability evaluation
Artificial intelligence interpretability
Subjective evaluation
Objective evaluation
Evaluation method
Neural network
Deep learning
-
分类号
TP18
[自动化与计算机技术—控制理论与控制工程]
-
-
题名基于代理模型的XAI可解释性量化评估方法
被引量:1
- 2
-
-
作者
李瑶
王春露
左兴权
黄海
丁忆宁
张修建
-
机构
北京邮电大学网络空间安全学院
北京邮电大学计算机学院
可信分布式计算与服务教育部重点实验室
北京航天计量测试技术研究所
国家市场监管重点实验室(人工智能计量测试与标准)
-
出处
《控制与决策》
EI
CSCD
北大核心
2024年第2期680-688,共9页
-
文摘
可解释人工智能(explainable artificial intelligence, XAI)近年来发展迅速,已出现多种人工智能模型的解释技术,但是目前缺乏XAI可解释性的定量评估方法.已有评估方法大多需借助用户实验进行评估,这种方法耗时长且成本高昂.针对基于代理模型的XAI,提出一种可解释性量化评估方法.首先,针对这类XAI设计一些指标并给出计算方法,构建包含10个指标的评估指标体系,从一致性、用户理解性、因果性、有效性、稳定性5个维度来评估XAI的可解释性;然后,对于包含多个指标的维度,将熵权法与TOPSIS相结合,建立综合评估模型来评估该维度上的可解释性;最后,将该评估方法用于评估6个基于规则代理模型的XAI的可解释性.实验结果表明,所提出方法能够展现XAI在不同维度上的可解释性水平,用户可根据需求选取合适的XAI.
-
关键词
可解释人工智能
可解释性评估
评估模型
代理模型
规则模型
定量评估
-
Keywords
explainable artificial intelligence
interpretability evaluation
evaluation model
surrogate model
rule model
quantitative evaluation
-
分类号
TP18
[自动化与计算机技术—控制理论与控制工程]
-