EDA365欢迎您登录!
您需要 登录 才可以下载或查看,没有帐号?注册
x
目录 1 \7 c* w; O) K4 w- E
引言
" D# d. H* C4 _' o极限学习机原理
0 k7 H, u# K2 H# |0 k5 OMATLAB中重点函数解读 ; \+ @- W0 e$ {( ~3 g" z8 e& E
极限学习机的MATLAB实践
2 ~ ~7 c) M4 a: r引言 极限学习机不是一个新的东西,只是在算法(方法)上有新的内容。在神经网络结构上,就是一个前向传播的神经网络,和之前几篇博文讲的意义。 8 u: G1 q4 Y; H. Y) F
& g9 K3 P2 W( C
为什么我们需要ELM?
5 g% [! P. X5 `8 wThe learning speed of feedforward neural networks is in general far slower than required and it has been a major bottleneck in their applications for past decades. Two key reasons behind may be:
+ f0 o* g, H$ ]4 p- H8 A. x1) the slow gradient-based learning algorithms are extensively used to train neural networks.
) E( y" Z0 y4 f7 \" p# [1 V- w$ `8 d2) all the parameters of the networks are tuned iteratively by using such learning algorithms. / ~9 R' w2 v2 ^$ V z" [
最大的创新点: 3 {, `( V" E H2 }0 f0 a0 [* s. u8 F
1)输入层和隐含层的连接权值、隐含层的阈值可以随机设定,且设定完后不用再调整。这和BP神经网络不一样,BP需要不断反向去调整权值和阈值。因此这里就能减少一半的运算量了。
u' C# T! z% U3 k: e2)隐含层和输出层之间的连接权值β不需要迭代调整,而是通过解方程组方式一次性确定。 v/ b2 d7 g% n7 d+ i
研究表明,通过这样的规则,模型的泛化性能很好,速度提高了不少。
L8 e I5 x8 I1 l2 v. w一言概之,ELM最大的特点就是对于传统的神经网络,尤其是单隐层前馈神经网络(SLFNs),在保证学习精度的前提下比传统的学习算法速度更快。 P: I4 ?! I2 G% y" R$ l( g
|