神经网络神经元个数的确定

当训练集确定之后,输入层结点数和输出层结点数随之而确定,首先遇到的一个十分重要而又困难的问题是如何优化隐层结点数和隐层数。实验表明,如果隐层结点数过少,网络不能具有必要的学习能力和信息处理能力。反之,若过多,不仅会大大增加网络结构的复杂性(这一点对硬件实现的网络尤其重要),网络在学习过程中更易陷入局部极小点,而且会使网络的学习速度变得很慢。隐层结点数的选择问题一直受到神经网络研究工作者的高度重视。

方法1:

fangfaGorman指出隐层结点数s与模式数N的关系是:s=log2N;

方法二:

Kolmogorov定理表明,隐层结点数s=2n+1(n为输入层结点数);

方法三:

s=sqrt(0.43mn+0.12nn+2.54m+0.77n+0.35)+0.51

(m是输入层的个数,n是输出层的个数)。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容