-
题名2023年可解释人工智能技术主要发展动向分析
- 1
-
-
作者
王梓屹
简萌
李彬
孙新
-
机构
北京理工大学计算机学院
北京工业大学信息与通信工程系
嘉远未来数字科技(北京)有限公司
-
出处
《无人系统技术》
2024年第2期113-120,共8页
-
基金
国家自然科学基金(U22B2061,62106243)。
-
文摘
可解释人工智能与当下人工智能研究与应用所重点关注的可信赖性和鲁棒性等问题密切相关。对2023年可解释人工智能技术领域的主要发展动向进行了综合评述。首先介绍可解释人工智能的概念内涵和实现途径,然后介绍可解释人工智能技术的当前最新进展,最后概述可解释人工智能技术的未来发展趋势。综述表明,针对当下热门的生成式人工智能模型的解释研究,已经成为当前可解释人工智能领域的重要研究热点;针对传统人工智能模型的解释研究主要聚焦于探索多视角融合的解释途径、强化无监督学习框架的可解释性;此外,可解释人工智能开源社区建设提速,助力打开模型“黑盒”的开源工具不断丰富。综述认为,突破微观神经元行为层面的可解释性瓶颈、构建兼具内在常识与外在环境交互能力的“心智系统”等研究方向,正在成为未来可解释人工智能技术的重要发展趋势。
-
关键词
可解释人工智能
深度学习
生成式人工智能
大语言模型
黑盒模型
无监督学习
开源
-
Keywords
eXplainable Artificial Intelligence
Deep Learning
Generative Artificial Intelligence
Large Language Model
Black-box Model
Unsupervised Learning
Open-source
-
分类号
TP183
[自动化与计算机技术—控制理论与控制工程]
-