EDA365欢迎您登录!
您需要 登录 才可以下载或查看,没有帐号?注册
x
目录 % x* G9 N& ? |$ I. D
引言
. u1 e. f5 |, H0 n7 X. j+ m极限学习机原理 7 K9 Q. C4 w- q. d9 w5 T4 U; E
MATLAB中重点函数解读 3 N" b0 A7 R9 T6 W G
极限学习机的MATLAB实践 : {& D D; P2 T! ~5 P$ _/ W- N
引言 极限学习机不是一个新的东西,只是在算法(方法)上有新的内容。在神经网络结构上,就是一个前向传播的神经网络,和之前几篇博文讲的意义。 + \; B) Z2 M! M. d6 s
0 \7 m7 H5 @$ z- J0 U8 C0 U为什么我们需要ELM?
6 j' q0 D( t7 I8 {' @5 vThe learning speed of feedforward neural networks is in general far slower than required and it has been a major bottleneck in their applications for past decades. Two key reasons behind may be:
0 r' c: O5 `7 w1 B0 ^2 a: t/ U! n1) the slow gradient-based learning algorithms are extensively used to train neural networks. ; e, s4 V; X- I2 R Z9 N5 P' ` i! S
2) all the parameters of the networks are tuned iteratively by using such learning algorithms.
+ T a' [* y, w* l' f$ t* n最大的创新点:
6 F/ x) X! ?* N9 c1)输入层和隐含层的连接权值、隐含层的阈值可以随机设定,且设定完后不用再调整。这和BP神经网络不一样,BP需要不断反向去调整权值和阈值。因此这里就能减少一半的运算量了。 % z$ g3 t, i' ^
2)隐含层和输出层之间的连接权值β不需要迭代调整,而是通过解方程组方式一次性确定。
6 C" h0 R; u6 {1 N+ K研究表明,通过这样的规则,模型的泛化性能很好,速度提高了不少。
/ B8 @0 }( U6 D$ x. h一言概之,ELM最大的特点就是对于传统的神经网络,尤其是单隐层前馈神经网络(SLFNs),在保证学习精度的前提下比传统的学习算法速度更快。
9 S, b y8 U+ N& X6 x# j
|