EDA365电子论坛网
标题: 极限学习机(Extreme Learning Machine, ELM)原理详解和MATLAB实现 [打印本页]
作者: baqiao 时间: 2020-6-8 15:36
标题: 极限学习机(Extreme Learning Machine, ELM)原理详解和MATLAB实现
目录
& l( n, L) {" A
引言
9 J0 p; B0 A1 D5 u. W
极限学习机原理
/ }: ~+ j5 r; u7 a' K$ F# [( yMATLAB中重点函数解读
) o5 m! T, A) \: P极限学习机的MATLAB实践
; K6 y, J1 S) J. X
引言
极限学习机不是一个新的东西,只是在算法(方法)上有新的内容。在神经网络结构上,就是一个前向传播的神经网络,和之前几篇博文讲的意义。
; I' @# T; ^" R N2 l+ A( x
/ x$ _% v7 a8 S* a7 R. F
为什么我们需要ELM?
$ s+ j+ ]$ {; L; `6 IThe learning speed of feedforward neural networks is in general far slower than required and it has been a major bottleneck in their applications for past decades. Two key reasons behind may be:
/ `9 K3 M5 I* S, Y/ `8 E1) the slow gradient-based learning algorithms are extensively used to train neural networks.
' r; e5 ^. z1 R9 p0 K6 ~3 E& r
2) all the parameters of the networks are tuned iteratively by using such learning algorithms.
% K) f! u3 T( |. B u2 Z
最大的创新点:
1 _' ]0 I: n! f8 k- w8 J+ V1)输入层和隐含层的连接权值、隐含层的阈值可以随机设定,且设定完后不用再调整。这和BP神经网络不一样,BP需要不断反向去调整权值和阈值。因此这里就能减少一半的运算量了。
+ A. r$ a* d& S) I7 R' B2)隐含层和输出层之间的连接权值β不需要迭代调整,而是通过解方程组方式一次性确定。
3 K* l4 M4 z, ?( x' x% v3 @研究表明,通过这样的规则,模型的泛化性能很好,速度提高了不少。
' ^( `* |/ N, _( Y0 @, _1 y9 E一言概之,ELM最大的特点就是对于传统的神经网络,尤其是单隐层前馈神经网络(SLFNs),在保证学习精度的前提下比传统的学习算法速度更快。
3 j8 c% D" g( k# N
作者: NingW 时间: 2020-6-8 17:04
极限学习机(Extreme Learning Machine, ELM)原理详解和MATLAB实现
| 欢迎光临 EDA365电子论坛网 (https://bbs.eda365.com/) |
Powered by Discuz! X3.2 |