|
EDA365欢迎您登录!
您需要 登录 才可以下载或查看,没有帐号?注册
x
人工神经网络的基本概念:+ P) V5 ^+ S- }" g# k
人工神经网络是对脑神经元结构的抽象。大脑中的神经元可以自行连接一定距离内的其他相同个体并与之通信,而人工神经元则是层层传递,其中每个人工神经元都设有有激活函数,并由此来决定到底是向下一次层传递兴奋信号还是抑制信号。激活函数中可变的是权值和阈值,在神经网络的训练过程中,就是不断对权值和阈值进行修正,使之更好的拟合训练集的数据。! E% P5 @5 P7 Y2 u' \
/ C3 l* S7 Z( d5 y+ U* W
常见神经网络拓扑:3 ]* u1 I2 z' Y; h3 Y0 t5 N
数层若干神经元层层连接,就形成了神经网络。某种程度上,神经网络就是一个图问题,根据拓扑结构的不同,又有如下区分:2 y# W" `7 p3 I; \
1. 单层前向神经网络
1 w; v- i4 s+ J# a+ m, Q; g2 C这种神经网络的的缺陷是只能对线性问题分类。改进思路就是修改激活函数(把分类线变成曲线,如椭圆线)、增加神经网络层数(让两条直线或多条直线来分类)。
2 p& {! _4 B& G3 y8 Z+ d
8 _: i2 }! L# ]* E主流做法是增加层数,于是有了多层感知器 。
3 i7 v3 n+ d6 n! A& M! p2.多层前向神经网络0 y% y u e4 ~. x; ^. K
4 b% }, ^' W( y* _5 |, D) G1 P
3.反馈神经网络
( ~& k( V% P, ^" H* o( m
) y; e/ i" V8 F
4.随机神经网络
@. e& s0 C* K- b9 x$ x0 g
& ]2 G0 K. U+ Y0 Y& W5.竞争神经网络(一个神经细胞兴奋后抑制周围的神经细胞)4 c8 g$ t9 y3 e! O0 ~) l
* w" V: G; b9 [, S9 p% z
随着时间的发展,深度神经网络不断出现,如最后的循环神经网络,卷积神经网络等。但是对于单片机而言,由于算力的限制,简单的浅层神经网络有更大的使用价值。而大部分浅层神经网路输入输出可以表示为下列公式:6 Q$ K$ x+ p" c& X
: z' `+ \8 d+ u& I5 B+ q
其中的u指的是输入神经元的值,w与b分别是需要通过训练确认的权值和阈值,公式的迭代则反映的是神经网络内神经元的层级结构。
$ M# W1 \) |2 A2 C+ Y, B9 j2 N0 z, K0 u. y. h8 \) K
单片机中运行神经网络的程序源码:+ l1 t, _# ^5 F; _4 N( u. f2 d
程序代码如下:
. o x$ w! T; B+ V9 S% _& T& k4 B6 J#include <reg52.h>
1 H6 l0 d' F$ {' z/ P! @( V#include <absacc.h>
. A; f) {* g3 G" K, p#include <stdio.h>
/ p: x3 I I6 R3 g#include <math.h>
$ y5 {: K% F5 K. p; E8 E' C' i#define uchar unsigned char# S2 S( i9 b5 m2 B9 Q: o/ u$ S
uchar num;% K7 C! D* a$ ]( w0 d) r' A/ @# b
flOAT s1_out1,s1_out2,s1_out3,s1_out4,s2_out1,s2_out2,s2_out3,s2_out4;
7 R! o+ E; ~# A% l' [6 qfloat yout,u1,u2,u3,u4;6 j' w! N% W& M- R" y( z# r0 O
* L q' o0 o# A9 Y! ]8 k d; g+ wvoid main()
8 h \0 T6 h; u% c0 L( X{
: \1 ^) e+ q: K1 u" GEA = 1;, C: Z% W. {) Q9 x; {. s, j# T
ET0 = 1;
! n- i: h2 e# ]1 S M) ITMOD = 0x01;! `( g5 C: Y- D) ?: [/ Z3 a1 N
TL0 = 0x00;( b/ a3 g3 B- q' O6 B
TH0 = 0x00;* p9 k& m1 R" i! V& {2 E$ _3 e
num = 0;' R; V3 `* V9 X5 p. d
u1 = 0.0107;
4 d+ E- J/ A# G6 Bu2 = 0.3055;; |( X$ K4 l; e
u3 = 0.3046;
5 B& U* [7 O! |0 l: yu4 = 0.3038;
. ~5 w5 n, X$ W$ N* U6 V* R( ?TR0 = 1;
8 y. ^( s6 b9 Q8 L1 ^+ Vs1_out1 = (-0.6133*u1+1.1958*u2+0.1451*u3-1.4079*u4+2.0969);/ ~2 J5 ~: B; K1 p) t9 p$ B
s1_out1 = 2/(exp(-2*s1_out1))-1;7 N# E9 A, }# K$ q
s1_out2 = (0.7955*u1+0.4564*u2+1.6416*u3-0.6515*u4-0.6728);& I& N# M1 L0 ^- e9 s8 ^% X: C* Z
s1_out2 = 2/(exp(-2*s1_out2))-1;3 K' J% L1 ?+ N4 f
s1_out3 = (0.1069*u1+0.6961*u2+1.3756*u3-1.5583*u4-0.0661);
7 a0 X; v1 R" h! Ys1_out3 = 2/(exp(-2*s1_out3))-1;. {/ G' _) Y8 _% S& c
s1_out4 = (0.1996*u1+1.0877*u2+1.09058*u3-0.34468*u4-2.8265);8 O* e I [7 n3 \$ W0 _' R6 _
s1_out4 = 2/(exp(-2*s1_out4))-1;. F1 _ ]% C% `) ?. \0 q
$ s+ K6 u m' V4 k$ c6 f
s2_out1 = (-1.0413*s1_out1+0.8898*s1_out2-1.3195*s1_out3-0.2691*s1_out4+2.0827);
- h3 K. z/ R2 A4 Fs2_out1 = 2/(1+exp(-2*s2_out1))-1;
, R; ~( s3 n% o% P( w X6 S0 es2_out2 = (-1.3146*s1_out1+0.4266*s1_out2-1.7021*s1_out3-0.0018*s1_out4+0.6756);9 A: u0 d/ b$ W; X
s2_out2 = 2/(1+exp(-2*s2_out2))-1;$ T, _- X, x$ z' z
s2_out3 = (1.6830*s1_out1-0.9289*s1_out2-0.3520*s1_out3-0.2839*s1_out4+0.6526);. X4 ?" l0 t: B w
s2_out3 = 2/(1+exp(-2*s2_out3))-1;
- D+ ^+ K( M r, ?5 }s2_out4 = (-1.4929*s1_out1-0.1193*s1_out2-0.4037*s1_out3-1.2339*s1_out4+0.20409);7 q8 b/ r2 Z3 |& b* Z
s2_out4 = 2/(1+exp(-2*s2_out4))-1;& G- {7 r$ r0 @; R; n
yout = (-0.1805*s2_out1+0.9100*s2_out2+0.5065*s2_out3-0.2351*s2_out4-0.1674);& \, t2 Q2 a" j! R# @' r2 I2 D
TR0 = 0;
( e h4 \& R) {/ h1 V7 F4 r5 GET0 = 0;
4 a! }3 v" i6 `6 ~ _9 u- V, X: \0 Kwhile(1);
4 P) ?0 v" y8 N4 S# g5 _! ~0 j! v/ b" `: v
} k% { I O: ]6 n9 e7 i5 o- t2 \
void intsVR1() interrupt 1 using 1
' u' q/ j, v: z, F{
$ R: U. q6 ]: B2 m- ~: r* `1 Unum++;
9 {8 c0 g4 c* k8 z0 oTH0 = 0x00;$ ]0 V' b, ~% A+ z
TL0 = 0x00;7 V; e/ w1 B, i# N+ D& b
}; l- g# I& C6 T# P2 B) b0 x
程序中的神经网络的权值和阈值,已经在先前训练阶段所确定,并且由于单片机对ROM和RAM的资源限制,我们选择将权值和阈值写成了立即数的形式。/ B. Y8 H6 t4 x7 I3 X! W
由于我们这是训练后的神经网络,所以使用分段多项式的方式来拟合激活函数tanh,这也符合单片机计算浮点数较慢的现实。
5 z0 ?5 C' g" e1 y; g( Y8 }; B在保证一定预测精度的情况下,使用单片机来实现神经网络,应考虑现实条件的制约,将神经网络模型尽可能的简化。. q3 Z6 M1 ]2 W, f
|
|