期刊文献+

前言

Preface
下载PDF
导出
摘要 以深度学习为代表的人工智能取得突破性进展,然而海量的参数与复杂的处理机制,使得人类很难追溯与理解推理过程,导致这类端到端的黑箱学习方法不可解释,造成“知其然,不知其所以然”.由此引发人们对算法可信性、公平性产生质疑,甚至造成伦理、法律等问题,影响了黑箱人工智能方法在无人驾驶、精准医疗、智能交通等高风险决策工程中的大规模应用.可解释性问题是打开黑箱人工智能方法、构建新一代人工智能理论的关键问题之一.可解释智能学习方法既要给出结果,同时也能提供计算推理过程所形成的证据链.
作者 郑庆华 Zheng Qinghua
机构地区 西安交通大学
出处 《计算机研究与发展》 EI CSCD 北大核心 2021年第12期2571-2572,共2页 Journal of Computer Research and Development

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部