期刊文献+

神经网络可解释性可视化方法研究

Research on Interpretable Visualization Methods of Neural Networks
下载PDF
导出
摘要 深度学习的发展,促使神经网络在现实各个领域得到广泛应用。神经网络可解释性的缺乏是的其在安全性、可靠性要求较高的行业没有得到实质性应用。可视化方法立足对神经网络结构、特征的诠释,是一种很好的神经网络解释性方法。依据神经网络结构、训练阶段,归纳可视化方法为:特征可视化、关系可视化和过程可视化。最后利用Grad-CAM方法举例了特征可视化,描述了其工作原理。 The lack of interpretability of neural network makes it not be applied substantively in industries requiring high se⁃curity and reliability.The visualization method is based on the interpretation of the structure and characteristics of neural network,which is a good interpretation method of neural network.According to neural network structure and training stage,the visualization methods are summarized as:feature visualization,relationship visualization and process visualization.Finally,the Grad-CAM method is used to illustrate the feature visualization and describe its working principle.
作者 于芝枝 Yu Zhizhi(Guangdong Patent Examination Cooperation Center,Patent Office of the State Intellectual Property Office,Guangzhou 510535)
出处 《现代计算机》 2022年第21期80-81,103,共3页 Modern Computer
关键词 可解释性 深度学习 可视化 interpretability deep learning visualization
  • 相关文献

参考文献1

二级参考文献7

共引文献1

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部