EDA365欢迎您登录!
您需要 登录 才可以下载或查看,没有帐号?注册
x
目录
/ m0 k0 F, ?9 s3 `( A$ \" z2 d引言 5 G& n, y! L+ S( H: f- k+ e) L9 g
极限学习机原理
4 S0 u& o) E, h+ S/ vMATLAB中重点函数解读
+ L9 {' x5 C( s极限学习机的MATLAB实践 , I" |+ B) d+ D- i9 M$ O* v
引言 极限学习机不是一个新的东西,只是在算法(方法)上有新的内容。在神经网络结构上,就是一个前向传播的神经网络,和之前几篇博文讲的意义。 ) L2 j; j6 Y" p) ~! r+ Y
, d" r' b3 X7 d1 D
为什么我们需要ELM? ( |8 I6 j+ h/ u! f) N
The learning speed of feedforward neural networks is in general far slower than required and it has been a major bottleneck in their applications for past decades. Two key reasons behind may be:
5 h+ m0 Z. \- ~: M, k1) the slow gradient-based learning algorithms are extensively used to train neural networks. 4 z$ Z. S0 L" ~
2) all the parameters of the networks are tuned iteratively by using such learning algorithms. / V: x5 t# z- N$ `, B# P4 h8 N
最大的创新点: $ ^/ _$ s( q) G( _3 k
1)输入层和隐含层的连接权值、隐含层的阈值可以随机设定,且设定完后不用再调整。这和BP神经网络不一样,BP需要不断反向去调整权值和阈值。因此这里就能减少一半的运算量了。
1 v, C8 y& ^* D7 p; Q2 C2)隐含层和输出层之间的连接权值β不需要迭代调整,而是通过解方程组方式一次性确定。 ' ]) q& M; ?$ r O4 K
研究表明,通过这样的规则,模型的泛化性能很好,速度提高了不少。 / I5 h) \9 {8 @" u
一言概之,ELM最大的特点就是对于传统的神经网络,尤其是单隐层前馈神经网络(SLFNs),在保证学习精度的前提下比传统的学习算法速度更快。 / v/ G$ i. a# \
|