EDA365欢迎您登录!
您需要 登录 才可以下载或查看,没有帐号?注册
x
目录 2 Z! q1 o1 ^- @ V" V
引言
$ M4 N5 o6 U: T1 }极限学习机原理 5 v9 u+ r& [' ~3 Q" z/ V- G1 A
MATLAB中重点函数解读 ; U9 y% ~# X) F& ^8 Y
极限学习机的MATLAB实践
& j Y( k* g! U引言 极限学习机不是一个新的东西,只是在算法(方法)上有新的内容。在神经网络结构上,就是一个前向传播的神经网络,和之前几篇博文讲的意义。
8 f1 L* @) |, m$ g/ Z& G! e; k! E5 @# i0 A! a" c
为什么我们需要ELM?
9 _! A7 s- B$ Z' a+ q4 D! J, k' uThe learning speed of feedforward neural networks is in general far slower than required and it has been a major bottleneck in their applications for past decades. Two key reasons behind may be: 3 b7 U$ A4 w: ?1 b C8 W
1) the slow gradient-based learning algorithms are extensively used to train neural networks. [1 Z) k1 O: B1 P& r5 h/ q
2) all the parameters of the networks are tuned iteratively by using such learning algorithms.
/ l- _! v* U/ q1 M最大的创新点:
* a: @ g' {8 }4 b8 L9 c/ N' @( Y1)输入层和隐含层的连接权值、隐含层的阈值可以随机设定,且设定完后不用再调整。这和BP神经网络不一样,BP需要不断反向去调整权值和阈值。因此这里就能减少一半的运算量了。
$ B3 Y7 ~" x2 U2)隐含层和输出层之间的连接权值β不需要迭代调整,而是通过解方程组方式一次性确定。 8 _" ^$ U. G5 U, s& {
研究表明,通过这样的规则,模型的泛化性能很好,速度提高了不少。
! j3 \. O* G4 }8 R一言概之,ELM最大的特点就是对于传统的神经网络,尤其是单隐层前馈神经网络(SLFNs),在保证学习精度的前提下比传统的学习算法速度更快。 . A# w2 k9 _" { N! V K! Z
|