期刊文献+

训练多层网络的样本数问题 被引量:23

THE SAMPLE SIZE FOR TRAINING MULTI-LAYERED NEURAL NETWORK
下载PDF
导出
摘要 本文分析多层网络的映射增长函数,以经验风险最小和期望风险最小之间的偏差来定义网络的泛化能力。基于Vapnik-Chervonenkis的事件出现频率一致收敛于其概率的理论,讨论网络的结构、训练样本数和网络泛化能力间的关系。分析在最不利的情况下为保证一定泛化能力所需要的训练样本数。 Based on the theory of uniform convergence of frequencies of events to their probabilities given by Vapnik and Chervonenkis, the relation-ship among the number of mapping functions, the size of training samples, and the ability of generalization of the multilayered neural network is discussed. The minimum training sample size, which guarantees valid generalization in the worst case, is analysed.
作者 张鸿宾
出处 《自动化学报》 EI CSCD 北大核心 1993年第1期71-77,共7页 Acta Automatica Sinica
基金 国家自然科学基金
关键词 人工神经网络 泛化 维数 Neural network generaliization Vapnik-Chervonenkis dimenstion.
  • 相关文献

参考文献1

  • 1边肇祺,模式识别

同被引文献182

引证文献23

二级引证文献396

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部