|
|
EDA365欢迎您登录!
您需要 登录 才可以下载或查看,没有帐号?注册
x
目录 D. U# g; S/ N; \
& f3 b' J1 D0 O8 l5 D# Q: K8 j决策树原理概述
" W7 O! C1 n) q' D8 l2 ]6 q1 f( _: e$ m# u3 u3 T3 N
决策树的经典算法:ID3算法
: m2 J/ T/ e1 d0 z3 D% l% \
8 v5 {8 q( b5 r7 r- Q: C ^改进:C4.5算法
" m3 P" e* r' O
" O+ w( g9 h- L4 N2 e) s$ f/ @Hunt算法1 G1 S% `/ I$ ~+ y6 n# c! p
, B) T" b3 x$ M& j' x v决策树的优缺点* U( F1 P6 g3 ]0 Z7 c/ i* [, m
# @9 V3 p$ C1 f, k( d% M" g! uMATLAB实现决策树分类算法% p' m1 w5 _5 K
: E, K2 `3 }# F
基于python实现决策树1 ]! R$ V/ y- k2 K5 z7 Q& W
' L; ?3 J- e. C$ T K; _2 ?3 L1 \: ], `# B2 i$ n
: Z$ ^6 [/ j( y( k/ Q8 P6 ~$ \决策树原理概述
) j# {; i) g) L: U
5 k7 J- O! V- A& a$ d% G
! H2 D# @( |/ x* X0 Z/ g& J+ O# @
* Y( x1 w* q9 @ V; O- 决策树通过把样本实例从根节点排列到某个叶子节点来对其进行分类。树上的每个非叶子节点代表对一个属性取值的测试, 其分支就代表测试的每个结果(yes no表示正类、负类);而树上的每个叶子节点均代表一个分类的类别,树的最高层节点是根节点。当所有叶子节点给出的分类结果都一样时,就结束生长,即已经可以判定样本的类别。
! |7 `6 Z. c6 H' Y# v+ ^ 4 f2 g( O. Q8 ~* R3 ^; s* _
- 根节点并没有什么实际的意义。
" t7 e- m( b$ X( e& } 7 r4 b0 t9 n0 Z; r. u) G, s, J
- 简单地说,决策树就是一个类似流程图的树形结构,采用自顶向下的递归方式,从树的根节点开始,在它的内部节点上进行属性值的测试比较,然后按照给定实例的属性值确定对应的分支,最后在决策树的叶子节点得到结论。这个过程在以新的节点为根的子树上重复。直到所有新节点给出的结果一致或足以判断分类(我们可以设计一些规则来决定)。
1 Q9 n. G# \4 Y5 P: n3 x 7 y4 x" I) X( B6 ?
/ o. K- J3 W4 I2 Y
5 S* l$ }* P* L3 n* T# q9 n0 t上图是一个区分动物类型的例子。7 y. l3 x( U6 q+ t( W
" c; t5 ^5 C' r9 @
- 决策树其实很好理解。举个例子,它就像我们玩的猜谜底游戏。B向A提问,每次可以问不同的问题,而A只能回答是或不是,对或不对。通过多次发问,B越来越接近正确答案。这里,每个问题实际上就是非叶子节点的属性测试,是或者不是就是给出测试结果yes or no。如果一个谜底符合你所有问题(属性),得到答案一致,那么你一定能肯定这个谜底是什么。
: v0 p K) J/ [/ k4 O1 W1 C0 G0 y# B; V ) o. C# [% o Y: g7 F8 L, u
- 分类树——面向离散变量的决策树;回归树——面向连续变量的决策树。1 N, y. ]" D5 V6 Y( y9 h5 T) L9 F
1 a9 \. E3 S! }5 J& C- 在决策树算法中,ID3 基于信息增益作为属性选择的度量,C4.5 基于信息增益比作为属性选择的 度量,CART 基于基尼指数作为属性选择的度量
$ C) m. ]( }0 ]& J & M6 A) r3 X3 u# F! [
- 优点:速度快、准确性高,便于理解。因为决策树的每个分支出来测试属性都是有实际的意义的,不像KNN之类直接用距离度量,没有实际的物理含义。决策树也适用于高维度的数据,不需要任何领域知识和参数假设。2 n4 B( T, L3 {: \
7 P1 R# E4 o0 T6 g- 缺点:对于各类别样本数量不一致的数据,信息增益偏向于那些具有更多数值的特征。容易过拟合。参见《模型过拟合及模型泛化误差评估》。
3 T" c# d2 p1 f- u- t) A/ t* f % Z3 e; U$ i( i0 V5 h9 s5 g
) h. [8 ~7 T$ L7 O/ Q
决策树的经典算法:ID3算法
- G6 ?9 Y. L1 |4 X1 H/ I
/ L" B+ F$ U' t原则上讲,对给定的数据集,可构造的决策树数目达到指数级。但是由于算力优先,我们只能在一定条件下构造出具有一定准确率的较优的决策树。这些算法通常都是采用贪心策略,在选择划分数据的属性时,采取一系列局部最优决策来构造决策树。
# d. H6 h, y9 v' k6 V
/ r; Y$ L& a) \1 K* uHunt算法是许多决策树算法的基础,包括ID3、C4.5和CART。
K0 @+ K# ?! D# _- w& F7 M; X* m' z9 a! B
& Z/ n# _$ V! N% s) P& i$ u3 y$ f7 N+ [! D2 ^
3 {3 b8 f( v" W. k+ {" a6 R+ \# D. B' x' K+ l; j, Q) I B
2 T. D7 U% b$ ?7 c1 o0 t% R& Q
2 w8 j# v4 a0 S/ _/ L信息增益越大代表这个属性中包含的信息量越多。因为它的定义式实际上是熵的变化。
9 p( _' p9 \( A6 K/ d0 v3 b; p/ ~* b7 o: @
. t' p+ s/ y0 N( a7 M改进:C4.5算法
0 w g/ |9 e3 |+ ~
* g1 ~& s: i. j7 X3 ^) p4 A2 w* G: @8 s, b
针对ID3算法中可能存在的问题,学者提出了一些改进。
?5 V, s9 Y! m. l: E* [5 @
8 o9 e# n' o1 l( E9 v$ ]
! I7 n. N- B: u9 s+ g+ F0 U& J
* X8 Z5 t8 I$ w' Y8 o
针对上述两种算法,具体解释和举例可以参考:《数据挖掘系列(6)决策树分类算法》,此处不再赘述。
; D3 k d" z& V. R6 Y
- M+ C2 a1 Y( X) N8 q/ R7 y6 M: F7 a% z
Hunt算法# E# {- H9 r, f5 r+ m" b8 T6 b, F
) p# \' T# j* r6 E+ Y7 Q
0 _7 y* [; F0 V* f在 Hunt 算法中,通过递归的方式建立决策树。
% e( [) [9 V$ N, g1)如果数据集 D 中所有的数据都属于一个类,那么将该节点标记为为节点。3 G, K4 D$ f2 e7 E+ [
2)如果数据集 D 中包含属于多个类的训练数据,那么选择一个属性将训练数据划分为较小的子集, 对于测试条件的每个输出,创建一个子女节点,并根据测试结果将 D 中的记录分布到子女节点中, 然后对每一个子女节点重复 1,2 过程,对子女的子女依然是递归的调用该算法,直至最后停止。+ J, [' x% P2 M7 p: h. g: l
. b9 ]4 Y+ |8 c* O7 z
8 S' g- Y2 O" a+ ]
决策树的优缺点
0 Y5 ]" T+ M5 F s( L6 b( h$ }* N" ~1 u) N/ }4 j" a( b! n
R8 d: Z2 H( h2 o" q( A8 ?& R
优点:$ k2 `+ X' |, G( _6 {( Z) o# y
3 ^; f7 M$ P! a: K
– 决策树易于理解和实现。 人们在通过解释后都有能力去理解决策树所表达的意义。+ q1 w4 j& h$ r/ {( W6 x% ^
_& t7 d N+ t8 {; ~% o/ c– 对于决策树,数据的准备往往是简单或者是不必要的。其他的技术往往要求先把数据归一化,比如去掉多余的 或者空白的属性。
5 |% A8 x9 u; E) [9 a4 ]: _. v" _5 ?& ^0 a8 m' u
– 能够同时处理数据型和常规型属性。 其他的技术往往要求数据属性的单一。
* z$ E0 l$ |9 u: z! y5 F. b; q1 q7 F ?& z
– 是一个白盒模型。如果给定一个观察的模型,那么根据所产生的决策树很容易推出相应的逻辑表达式。
! s: |! n, H+ v$ v
8 s8 I6 t& I! H7 |- {$ E4 t缺点:
9 [. [3 B$ v- P I. U+ c8 j$ S/ J# n7 X
– 对于各类别样本数量不一致的数据,在决策树当中信息增益的结果偏向于那些具有更多数值的特征。
! h/ b4 E8 s D0 p
. V1 D" l4 c0 { D6 w4 E– 决策树内部节点的判别具有明确性,这种明确性可能会带来误导。! q2 }# r# c% Z; a
0 a& w# q: |& u+ J, \- v( f9 `MATLAB实现决策树分类算法 u; a- J; x. r
0 S& y7 m( c0 A! L6 d+ d% m
%% I. 清空环境变量
; k J2 m$ T' `" \9 F" X8 _clear all/ m, I8 x: K) k+ s- b8 g
clc6 S9 e4 ]1 s: U. O
warning off
2 }5 A6 ?* I. `3 y& w . v! P" x6 n+ g# G
%% II. 导入数据3 l N; I+ v' {
load data.mat2 A9 L0 D* Q9 |+ i% g* p
4 T- B( \* H" d4 _0 M V7 H* w0 x d
%%
9 R8 E# l0 U# H+ l- n% 1. 随机产生训练集/测试集6 I" }% a9 M! C# e& G
a = randperm(569);
& E3 }% t' S* @3 iTrain = data(a(1:500),: );
9 L B9 L. p( w: E9 t, CTest = data(a(501:end),: );
* f( l2 @1 X7 a) x& k3 P! a+ J
$ L" y) x' ]' @8 o$ V5 A6 }0 p/ ^9 _5 V& \%%+ b, p6 _8 D$ S9 e1 C& ]
% 2. 训练数据
9 M( i. u' P: U+ ~& ?, M* p8 rP_train = Train(:,3:end);/ {$ p+ G7 {. n* w
T_train = Train(:,2);
% D; K9 O, ^& e Y* n- ^
. G- C1 z3 o( u9 Z0 g+ d%%
# E5 ], ]5 O" o: n% H, S8 E( R% 3. 测试数据
7 a) I. n& g" o5 EP_test = Test(:,3:end);# w& _5 r; h4 w) r
T_test = Test(:,2);
2 H. Q& N- X Z% ]# a$ _3 x * S2 ]: e+ A$ O0 B# H% U+ G# K
%% III. 创建决策树分类器
: H( p: P' u3 X3 c/ @7 octree = ClassificationTree.fit(P_train,T_train);+ N1 t% k: O: V6 b
- E% v' @! h' R+ O; C%%1 y7 |2 s1 [& z: \- Z* x* V
% 1. 查看决策树视图7 \0 N9 _$ j" W* I8 @4 \( C
view(ctree);
* {) Q( `4 A* `( W/ i% Qview(ctree,'mode','graph');# R8 O+ m/ @6 ?* {! A3 n
' K" n9 \1 I5 I. y" M* s! ~
%% IV. 仿真测试
3 n2 P( S3 h. P- ~6 R5 d; m6 s- XT_sim = predict(ctree,P_test);
; l6 Y0 u4 ]6 n, ]; P/ r - N& c' q! P/ j! k8 {
%% V. 结果分析* Q4 {8 n$ u3 W# B
count_B = length(find(T_train == 1));' [8 D5 J& J# m+ }
count_M = length(find(T_train == 2));# f- y- x* Z% o9 v( ~
rate_B = count_B / 500;1 M. C& y$ u L! Z! \" c: B
rate_M = count_M / 500;4 x8 J: }0 B Z6 N7 Z r* v
total_B = length(find(data(:,2) == 1));
- u% L. ?8 V) a/ C) j8 ktotal_M = length(find(data(:,2) == 2));6 J T" O$ b: d* G( H
number_B = length(find(T_test == 1));
- R4 W0 Q( i+ b6 X) I$ Mnumber_M = length(find(T_test == 2));
7 D, B& h' @3 B+ ~( g4 H) Knumber_B_sim = length(find(T_sim == 1 & T_test == 1));
5 \& R! c7 d: k* ?) U9 p' g! Inumber_M_sim = length(find(T_sim == 2 & T_test == 2));8 K5 y& p l7 p% I/ G+ F4 C
disp(['病例总数:' num2str(569)...
. I- U5 E) h( A0 a+ I2 u, v" t% u ' 良性:' num2str(total_B)...; U1 _- g. \6 y
' 恶性:' num2str(total_M)]);8 \- J9 S+ k* g6 F& ~5 Z# P
disp(['训练集病例总数:' num2str(500).../ A6 E- q% n6 y
' 良性:' num2str(count_B)...
7 Q! i1 J) V2 J3 ]$ L. a8 y z$ {9 k ' 恶性:' num2str(count_M)]);5 T. y% f$ @; C) C( J
disp(['测试集病例总数:' num2str(69)...+ C0 a8 ]3 `; b
' 良性:' num2str(number_B)...
0 h% I0 T' V6 R7 p* M# q ' 恶性:' num2str(number_M)]);
* \! j" ?) Y \( H2 B6 u4 O; `* Cdisp(['良性乳腺肿瘤确诊:' num2str(number_B_sim)...
1 Q0 h8 Z! S$ S" i ' 误诊:' num2str(number_B - number_B_sim)...
: x/ ]+ e0 J8 k7 N' y ' 确诊率p1=' num2str(number_B_sim/number_B*100) '%']);
l* u) N3 E4 T W( B( c, o9 l; Xdisp(['恶性乳腺肿瘤确诊:' num2str(number_M_sim)...
2 R4 q9 j" a6 {# H+ G5 u. }' f ' 误诊:' num2str(number_M - number_M_sim)...8 o: M; \# @2 }$ Y
' 确诊率p2=' num2str(number_M_sim/number_M*100) '%']);
% N9 r3 ~# ?0 T+ g" v 7 J O( @+ t, |+ Y( A
%% VI. 叶子节点含有的最小样本数对决策树性能的影响
) W8 a( a# D( N N) bleafs = logspace(1,2,10);3 T( d, ?/ K8 I- ^0 U4 t$ P
& P( y! U i9 C
N = numel(leafs);
! l) \ I$ J5 e( N- i e# A4 G ( [+ v& s) o8 h& w) l
err = zeros(N,1);" t [% m) c5 Y
for n = 1:N3 o( V, l/ m- c9 L* V$ G# N/ ]. x" W
t = ClassificationTree.fit(P_train,T_train,'crossval','on','minleaf',leafs(n));1 K8 v1 F. R$ I* s a" w
err(n) = kfoldLoss(t); ~4 ^: ~" a1 U
end
) G2 C2 q4 [; V% w9 ?3 splot(leafs,err);
# ?) c% u) m8 s' a! Y txlabel('叶子节点含有的最小样本数');
# ?. O: j& h7 h6 Kylabel('交叉验证误差');
+ K, ^# g: `4 ]( q6 [8 [title('叶子节点含有的最小样本数对决策树性能的影响')
$ I/ N0 Y& \2 n1 M9 l/ R ! n. Q- s0 a/ Y
%% VII. 设置minleaf为13,产生优化决策树- r( r, w& o9 g, O" [. e
OptimalTree = ClassificationTree.fit(P_train,T_train,'minleaf',13);7 [/ A- q5 r: b1 H, E+ o) |. Q+ _
view(OptimalTree,'mode','graph')
# y* ?% s @4 }! k6 J5 p7 q) s( E* O : l; ^& W& n' S5 V q n6 `
%%$ |; w5 M# C* h- { b0 C
% 1. 计算优化后决策树的重采样误差和交叉验证误差
$ |) a' k5 V5 l3 cresubOpt = resubLoss(OptimalTree)
; w. K' N a$ ylossOpt = kfoldLoss(crossval(OptimalTree))
) g M4 ^ M. d
0 K5 ~2 r' N9 ~+ r! }! u%%# H, p) n3 Y8 W$ S( Z+ Z
% 2. 计算优化前决策树的重采样误差和交叉验证误差
$ `: N7 Q! n# XresubDefault = resubLoss(ctree)% u7 d# p# p+ z9 [! G
lossDefault = kfoldLoss(crossval(ctree))1 S8 R9 u& H0 b, v7 G" V2 r9 Y
% E& a2 p, p/ Y$ @8 X0 |%% VIII. 剪枝5 z2 J; X0 b/ k$ U
[~,~,~,bestlevel] = cvLoss(ctree,'subtrees','all','treesize','min')
4 P" e, v, k& j0 U5 o3 Xcptree = prune(ctree,'Level',bestlevel);
I) t. U& ~( V% @ {& \ A# r- A8 Xview(cptree,'mode','graph')
3 c) Z. f( |( v) e( O 6 {, ~/ `$ b7 P6 Y- `' z
%%
5 `- D' Z. j1 V% H& [8 e- \8 ~% 1. 计算剪枝后决策树的重采样误差和交叉验证误差
' p' c9 E7 J: N _. CresubPrune = resubLoss(cptree)
. i! p" J4 [- N6 z: I- P2 ilossPrune = kfoldLoss(crossval(cptree))
! X8 a/ u8 x. a5 z# m: B
^- r4 J) \7 h4 R+ V) \2 ~/ a) r2 W1 w( D) Z
基于python实现决策树8 Y2 F3 y- F1 M! `2 y4 C7 r; H2 c
$ ]4 j/ g; N: E4 }: T
9 Y$ o. x7 m+ U3 Q. n8 X
1)python实现熵计算:) s% V8 j- l( a
2 A& V) B+ v; |' p7 E5 P
def calcShannonEnt(dataSet):
& n; y7 P1 [4 C numEntries = len(dataSet)
0 z x% N. U" v: F; X4 p2 M+ O& T labelCounts = {}0 m. S& Y* g, C" \% B0 C/ T
for featVec in dataSet:
- w' y* u. g- B7 H1 ]$ u. \# m currentLabel = featVec[-1]7 D. F3 M& [* ]# ?8 ~
if currentLabel not in labelCounts.keys():
% T" B( i/ q- g& R6 } labelCounts[currentLabel] = 0: k2 p4 ~; v8 J: Q8 ?- B
labelCounts[currentLabel] += 1
0 @1 e) H1 w# ]& `1 B1 P shannonEnt = 0.0( l7 T5 V5 D8 N) y
for key in labelCounts:# d" K7 d1 p0 v. e
prob = float(labelCounts[key])/numEntries
6 ~4 }. G" j! n- r' n shannonEnt -= prob*log(prob,2) * Z' v6 I: d/ z) p1 T
return shannonEnt1 ]( o. m# A+ w% ?
. @9 f- D$ P, D9 _3 o* P# a0 p7 J/ K5 c* u6 H
2)SKlearn.tree介绍及使用建议:
" U# g% V8 U9 B D- `* B5 ?$ v7 A6 D6 Q: e% j
官网:http://scikit-learn.org/stable/modules/generated/sklearn.tree.DecisionTreeClassifier.html8 }7 p% f6 ]! d; v. t6 \1 e
: l' a- _ ~/ P0 z2 M
class sklearn.tree.DecisionTreeClassifier(criterion='gini', splitter='best', max_depth=None, min_samples_split=2,min_samples_leaf=1, max_f eatures=None, random_state=None, min_density=None, compute_importances=None,max_leaf_nodes=None)' [5 u3 ? a# b% T
( H& K% d( v; |& s" G
重要参数:
0 D) C g7 I }; F9 e/ C- j# U7 a T$ s: U$ k8 G2 j' l
criterion :规定了该决策树所采用的的最佳分割属性的判决方法,有两种:“gini”,“entropy”。
3 H+ K2 R3 i0 E# [: V+ s. p
! T, G4 F+ W* ^/ Nmax_depth :限定了决策树的最大深度,对于防止过拟合非常有用。6 j7 v, L1 V0 G4 M+ A$ P7 j
: A- |8 b/ ^& {; Q8 vmin_samples_leaf :限定了叶子节点包含的最小样本数,这个属性对于防止上文讲到的数据碎片问 题很有作用, K" {4 \$ w9 R& D
1 d6 p6 M/ _* c4 y; u7 b重要属性方法:
; Y* s A+ I7 x! _
( ^) C: V! a# h: Q- z+ F, T- Fn_classes_ :决策树中的类数量。classes_ :返回决策树中的所有种类标签。) }; t/ V# Z6 z
feature_importances_ :feature 的重要性,值越大那么越重要。
, W( `; Z; Q c: W* d8 i2 _fit(X, y, sample_mask=None, X_argsorted=None, check_input=True, sample_weight=None):将数据集 x,和标签集 y 送入分类器进行训练,这里要注意一个参数是:sample_weright,它和样本的数量一样长,所携带的是每个样本的权重。4 G* v1 U4 G1 O" P3 G. I V; \
get_params(deep=True):得到决策树的各个参数。- h; }& q( U& { m0 t
set_params(**params):调整决策树的各个参数。
* t8 ^" b' H7 b4 cpredict(X):送入样本 X,得到决策树的预测。可以同时送入多个样本。
) S. ]" O8 g) Wtransform(X, threshold=None):返回 X 的较重要的一些 feature,相当于裁剪数据。; G* D* T! }9 g8 ]4 @/ u
score(X, y, sample_weight=None):返回在数据集 X,y 上的测试分数,正确率。
\2 ]2 {, f* w0 `/ v3 [6 v1 p+ s
" t+ Y1 l1 j8 O使用建议:
+ r) f3 w% G) f3 j# h
6 z1 F% c& K# n& h* w# Q, l0 Q# H- 当我们数据中的 feature 较多时,一定要有足够的数据量来支撑我们的算法,不然的话很容易oveRFitting。(《降维和特征选择的关键方法介绍及MATLAB实现》)
9 h0 ^' Q+ r& |
- `, |& a- b- n- PCA是一种避免高维数据overfitting的办法。(《主成分分析(PCA)的线性代数推导过程》)0 r B# [. @0 S1 \) N8 y
, h( ], E1 }' }3 ^: Y6 G+ j- 从一棵较小的树开始探索,用 export 方法打印出来看看。
, U$ e( e( A, [% N; G ) _* D0 y% q4 U2 [# Y
- 善用 max_depth 参数,缓慢的增加并测试模型,找出最好的那个 depth。
9 k9 w# a, M/ p5 K( V1 ?$ Q! W
: G7 y" X6 h& c* C0 M1 P- 善用 min_samples_split 和 min_samples_leaf 参数来控制叶子节点的样本数量,防止 overfitting。% v! O, o' |+ W! `0 g" g
* T- t) y: y% P+ a* v- 平衡训练数据中的各个种类的数据,防止一个种类的数据 dominate。
R# {/ B- h/ x. r6 ?9 V% p$ ]
* |7 t5 {: s" C% x
! [% p) M- ?) W: P" p. s |
|