EDA365欢迎您登录!
您需要 登录 才可以下载或查看,没有帐号?注册
x
目录 . ^/ u5 I% s) _) ]' {) h8 X Y
引言 X( u2 @) ]7 x9 D: _7 t2 H
极限学习机原理 ) f1 b5 {& a6 i) s: `
MATLAB中重点函数解读 # e( ]# E: c& j+ l8 |1 R
极限学习机的MATLAB实践 ! a$ D, v" @" i+ K% B
引言 极限学习机不是一个新的东西,只是在算法(方法)上有新的内容。在神经网络结构上,就是一个前向传播的神经网络,和之前几篇博文讲的意义。
% t; M# q& \2 B/ f) S0 j& W: u% }: ]/ E* | U2 ^0 w' U
为什么我们需要ELM? ' w7 E( v/ ]. v: M+ ~% e
The learning speed of feedforward neural networks is in general far slower than required and it has been a major bottleneck in their applications for past decades. Two key reasons behind may be:
: d! |; A( c" D; P1) the slow gradient-based learning algorithms are extensively used to train neural networks. , e+ a0 U2 T8 C9 t2 ?, I6 @+ {
2) all the parameters of the networks are tuned iteratively by using such learning algorithms.
3 }# S6 Y0 A0 y4 R d6 J% `最大的创新点: 4 c- f P3 ]1 w. ?. S8 l
1)输入层和隐含层的连接权值、隐含层的阈值可以随机设定,且设定完后不用再调整。这和BP神经网络不一样,BP需要不断反向去调整权值和阈值。因此这里就能减少一半的运算量了。
0 y5 w* p' A2 t" O, ~2)隐含层和输出层之间的连接权值β不需要迭代调整,而是通过解方程组方式一次性确定。
, w/ B4 Z: M) z- z. }4 b5 _3 y研究表明,通过这样的规则,模型的泛化性能很好,速度提高了不少。
. V/ Q5 `/ x, J0 l一言概之,ELM最大的特点就是对于传统的神经网络,尤其是单隐层前馈神经网络(SLFNs),在保证学习精度的前提下比传统的学习算法速度更快。
! q8 b, D& a% r V$ `1 M
|