TA的每日心情 | 怒 2019-11-20 15:22 |
|---|
签到天数: 2 天 [LV.1]初来乍到
|
EDA365欢迎您登录!
您需要 登录 才可以下载或查看,没有帐号?注册
x
1 K* m0 }" h2 |6 ~) Q; i; k. x$ x! P
为什么需要PeRFormance Test框架
' E9 H4 s7 w q) ?1 t* r WMATLAB Performance Test 框架是Mathworks在MATLAB R2016a中推出的一个新的框架,该框架用来获得代码性能在统计意义上的数据,还可以用来比较算法的性能,并且给出详细完整的报告。 如果只需要定性的性能结果,tic和toc是一个快速简单的获得代码耗时的工具,大家一定都使用过。比如下面的代码,比较对数组的不同赋值方式,衡量预先分配和不预先分配的耗时差别。test% u6 D5 B4 x/ s3 t( q# }
% alloc_tictoc.m
0 j" _% t4 W. M. b3 irows = 1000;
' t: `6 k% n( X/ ~0 Ucols = 1000;
" Y( _ _6 m2 p0 W% g6 @X=[];! _$ O/ f( B0 [ b: x% t
Y=[];
/ o+ y# }# J# L8 t0 w
9 R& @1 ?0 H9 u% 对不预先分配的数组X赋值计时
2 q3 w6 [( ^. Ztic( @( A! [7 g! C5 ]7 [2 x2 l8 u
for r = 1:cols
! w4 T8 |) ?5 t for c = 1:rows( [" h7 Q- T; Y" S
X(r,c) = 1;
3 p$ h% G% Z: e, _" z, q3 a end
2 T1 j9 k9 j2 e5 c3 z8 d! ?3 Mend4 Y' ^4 O e" u% V8 k( N2 d% B- C
toc
- t7 i- K! z6 Z" ]- G
6 F: b* }* g- ^* V {3 H% 对预先分配的数组Y赋值计时( y1 q# [3 M" ^2 W4 Y
tic
; r% {( v7 W: e1 f/ x& o; rY = zeros(rows,cols);
+ } w3 D3 c( B9 }7 R, v3 {for r = 1:cols
( n5 S* X/ c6 d& a9 u" @ for c = 1:rows2 t/ f# g! {" M$ H' Y# g3 ^/ D
Y(r,c) = 1;
3 ~7 ~1 S7 ^ O1 V& L: j; W4 M end, t+ I* S. o% N# q
end
& R- j1 k$ }4 [( etoc
9 G' x8 l# ~7 T! w$ k运行结果可以预料,预先分配数组赋值比不预先分配更快。
) h3 Q* E5 @, `: I# X4 q& E$ h5 }% Command Line,fontsize=\small
% H4 U) k/ D2 n>> alloc_tictoc
3 y+ i% c8 G( ?+ o [6 {* W5 f3 oElapsed time is 0.449438 seconds. % 不预先分配3 U7 x2 A }' P; X& x+ V
Elapsed time is 0.016257 seconds. % 预先分配
3 B' w. V6 K& g- ztic,toc可以快速简单的获得定性的结果,但是有时候,在工程计算中需要代码耗时的定量结果,比如对1000 X 1000的数组赋值,想确切知道预先分配比不预先分配究竟快多少? ,再使用tic toc就捉襟见肘了,运行上述script多次, 可以发现得到的其实是一些随机的分布的结果。
* z5 Q/ j+ |" Q, ~$ O) I" y' V>> alloc_tictoc
8 F$ g% G4 @5 R5 h, pElapsed time is 0.472567 seconds.
: }& r, T+ O( t1 N) |Elapsed time is 0.014476 seconds.
5 B6 M' L! M& V" P5 f# Q! h# ~9 d/ W>> alloc_tictoc7 O) D/ V, M* s* j) J
Elapsed time is 0.434714 seconds.! w# Q# ~% }' Q1 i$ ]) N" u0 F. ~
Elapsed time is 0.016879 seconds.' @# V" ~8 N8 h9 ]" B
>> alloc_tictoc) m# n* u' a6 p
Elapsed time is 0.448822 seconds. j+ b& _1 P% H
Elapsed time is 0.012684 seconds.
( Z. k8 \) X* S: [* T>> alloc_tictoc
' e+ ?* i. Q/ V) j* tElapsed time is 0.474179 seconds.
1 Y2 T6 r, T2 ~: Z. w xElapsed time is 0.013808 seconds.
9 _' d% X; `9 ~) L( y>> alloc_tictoc0 O+ \9 Q8 ]1 b, g
Elapsed time is 0.467369 seconds. i6 c6 e+ O F7 a) j& |
Elapsed time is 0.014176 seconds./ u+ s' H Q5 v5 {) C, I
定性的来说,可以肯定预先分配数组的方法要快得多,但是每次测量得到的结果,其实是符合一定分布规律的随机变量{(MATLAB的每一步的计算都要经过确定的函数和优化,从这个角度来说,每次测量应该得到精确唯一的结果。现实中,MATLAB工作在操作系统中,而操作系统会统筹分配系统的计算资源,不同的时刻,资源的分配不一定相同,从而带来了一定的随机性。) },测量结果在一定的范围内波动给获得定量结果造成困难。当两个算法的差别不是很大的时候,这样的波动可能甚至会影响定性的结果。如何得到可靠的性能测量的数据就是我们这章要解决的问题。最容易想到的一个改进就是把运行多次,把每次的结果收集起来,然后求平均,比如:1 K$ A9 a2 f: Y8 a' j( w6 R! B! e
tic
. s c# L8 G! _- G5 [' C, \9 k! Efor iter = 1: 100
3 U1 M/ V0 B) Z+ O* G for r = 1:cols+ t" O8 |6 \2 V4 v! `$ P" w
for c = 1:rows6 c* {( d2 L# o: n6 c9 I* Z
X(r,c) = 1;' s+ s) @3 {, f# X, \$ @: P
end
/ f6 f7 E+ u2 c1 c7 O, B/ l# j end2 n, O5 k b/ T) }0 T/ a6 t
end7 ?' v7 i- i B7 i/ w
toc0 g4 e4 L! W2 k5 @" A
% 再把得到的结果求平均,略* _- ]: _! E Z4 Q7 q" w
但是循环的次数很难有一个统一的标准,到底循环多少次结果求平均才可靠,次数少了结果不可靠,次数多了浪费时间。还有,理论上能否保证提高循环次数就一定可以得到统计意义上可靠的结果?一个严谨的性能测试不但需要一套规范的标准,还需要统计理论的支持。 另一个测量性能时要注意的问题是:如下所示,测量结果可能对algorithm1不公平,因为MATLAB的代码在第一次运行时候会伴随编译和优化,比如Just In Time Compilation(JIT)和最新的Language Execution Engine(LXE)的加速,这就是说,前几次运行的代码会有一些编译和优化带来的的耗时,可以把它们想象成运动之前的热身,如果algorithm1和algorithm2共用一些的代码,那么algorithm1运行时,可能已经帮助algorithm2热了一部分的身,而带来的额外时间却算在了algorithm1的耗时内: v! d0 G5 o& c$ T) `/ r7 _
% 代码优化可能带来额外的耗时,fontsize=\small
- d+ o4 M3 ]. Z& l, E9 {% 计时算法1: ~. R% V/ [4 M" a5 Z8 r$ k
tic
5 m' p3 q' @& A0 L& Valgorithm1();
. Y) l) P! y6 M( l0 C1 Z5 Z6 ^toc
. ~5 D7 M5 k* b& x8 C+ L3 j: T( {2 | w! e
% 计时算法20 p7 F9 m7 L$ Q5 a$ C
tic
4 V [4 e9 E$ _, c) Balgorithm2();5 j Q9 x. V8 S' F' i
toc" u+ n3 Y+ y8 N$ u' J
所以更公平的测时方法是,剔除前几次的运行,让要比较的代码都热完身之后再计时
2 E7 m0 p m% j; w5 `$ f% 剔除代码优化可能带来额外的耗时,fontsize=\small
6 b) G, M6 S; V5 o' q% 算法1热身4次
- Z6 W+ A8 X* d7 Z3 _6 \for iter = 1:4
& ^2 b. F' E" p algorithm1()
8 {) c+ K% D5 u9 H9 cend* [) Z3 t- H7 s% Q9 V: N
% 计时算法1
7 k1 T* H, W7 f) Itic# t7 k9 B6 I% n$ W; R5 r
algorithm1();
7 W3 M, s$ }0 U+ f/ Btoc7 D0 ?( t9 S' F) Y1 T2 D2 \
% 算法2热身4次
2 v" f8 W1 g5 ?+ g. I" B! T$ l' zfor iter = 1:4 d0 P: R( ]1 I, |$ [
algorithm2(). u* Z5 F: \* y5 J+ s# P/ C* Y
end
, V. ^3 C! b& E) t9 W% 计时算法2
& W6 n8 P h9 K- ~) q% Ptic; p6 s$ S9 @3 k
algorithm2();6 o G; O7 O7 {$ R
toc
& ^6 b% y, E% i9 ~- ^基于类的(Class-Based)性能测试框架& y) a* c! ^/ `" u
构造测试类) R3 N- S, u, i" F+ r$ h% R0 d
构造一个基于类的Performance测试很简单,我们只需要把Performance Test一节中的脚本转成性能测试中的方法即可。 任何基于类的Performance 测试类都要继承自matlab.perftest.TestCase父类,也就是框架的提供者;下面的类定义中,还把rows和cols两个变量放到了类的属性中,这样test1和test2可以共享这两个变量。8 P6 i$ w7 _9 H
% AllocTest, fontsize=\small
) N/ Z: i, {, X1 ~6 A+ u5 t7 Gclassdef AllocTest < matlab.perftest.TestCase % 性能测试的公共父类
7 q l' b1 [" l3 t. H properties
' e1 b6 f t2 ?: ]$ I7 u/ b rows = 1000
: A" k. c& ~7 w4 ? cols = 1000 ) B5 V8 z! Y$ f+ Z0 M1 ~0 x4 }
end - {2 i7 [2 N" C" C, e( }
methods(Test)
2 j$ g+ H# b0 V& P % 不预先分配赋值 测试点
O; ]7 z# V# I* g6 B function test1(testCase) 8 j V, ?" M4 t, s8 N, `: h
for r = 1:testCase.cols
% n/ T) C% ^' I( ?) e for c = 1:testCase.rows
% u1 `% s* \! e b X(r,c) = 1;
8 _9 i8 U- z& x% a) ] end
* o5 n6 e' W8 o0 Y0 H% b) t. R end; k9 O: Y, r: B y
end
: N% x* a! ^. }% n. z % 预先分配赋值 测试点: i2 n H! l" C& }& X- E
function test2(testCase)
2 a E( ?& W& T- d" r& t X = zeros(testCase.rows,testCase.cols); 1 p8 u7 _2 _! {0 k
for r = 1:testCase.cols b* h9 P- }! j( |+ _3 h
for c = 1:testCase.rows8 p6 _# l1 E* P9 [: g6 k, y
X(r,c) = 1;6 }9 N h& [) H" m
end7 Z8 j5 G, n( _/ U. [( e* b
end
; ^- H( a' B* p+ t1 l4 u end
* c8 A& O3 A/ \8 g# U& e! M; A5 O; c end2 ]* a6 C/ [: A0 Z% M5 Q+ I
end
! ^. x" J2 P( C运行runperf开始Performance测试* j3 c6 r- Y8 E
>> r = runperf('AllocTest')
# Z& M1 o; X* B' L% fRunning AllocTest
* B% J+ \: g2 }' [; y2 K" P..........
8 x% N( v+ a. f! i.......) ?- a* A1 S7 d6 d
Done AllocTest
2 u' D3 B& Q2 g__________" [, X% t) H' e# `# O; [: {
r =
- c( ~1 W, w# f+ i! ]/ D
3 y3 [6 ] z# }) e 1x2 MeasurementResult array with properties:. r6 o1 G$ B. F$ f
: k0 s9 K6 A# X7 C5 k Name
$ S, M& l1 `8 M! s Valid, N4 @6 l# U2 D# R. W; E
Samples
6 W# a5 O2 ]! a' A) U TestActivity p( b/ \, n x1 D) { y) {! P
' }4 V. F7 i' g( R2 NTotals:8 C F5 }8 ~3 ^* f; T% ?
2 Valid, 0 Invalid
]% e4 i& ~4 ?! {runperf返回一个1X2的结果对象数组,两个测试点都是合格的测试,, @$ b! G6 P& X$ Q7 J
测试结果解析7 O. W) ^8 ]5 z! A- Y' t
在命令行中检查对象数组中的一个元素,即test1的测试结果7 K) U3 Y4 d: s9 S- C1 U Q
>> r(1)/ f- p" \! X( n* k. k' s9 q
ans =
; Y# v( p+ `( Q$ P; C MeasurementResult with properties:
: D8 @: a% d, y# \. _) z3 C6 Z) ?( K1 { [; `7 B
Name: 'AllocTest/test1'; o$ D* }2 N- f3 ]( q
Valid: 1/ Z( d3 N& ?9 o# ^* E5 ]7 t$ V
Samples: [5x7 table] %简报 ' q [ f3 C" `7 ^
TestActivity: [9x12 table] %原始数据
. q4 k4 m& V YTotals:
_8 J9 X- I0 X# C% G/ {9 | 1 Valid, 0 Invalid.
2 S% V& t7 ?! d1 b' n其中属性TestActivity是测量的所有测量原始数据,原始sample是有用数据的简报,这里解析TestActivity中的原始数据
" X" z7 c: D. u! _; p$ u4 q>> r(1).TestActivity
* `- X7 m7 y! ~( T7 Y2 n5 E! b- |8 N* y6 V
ans = 1 `3 |( @9 t3 x3 [) e
9 b( t" P& R+ G. p Name Passed Failed Incomplete MeasuredTime Objective
" K3 Y6 n, R" a8 c% Q% l3 I _______________ ______ ______ __________ ____________ _________ # f" q2 S& K# A+ f$ g/ g1 |! a
& E/ [ W0 C2 ?1 {
AllocTest/test1 true false false 0.52387 wARMup
: H0 J* R- t' t3 R( H1 y { AllocTest/test1 true false false 0.44674 warmup 0 n5 Y2 j! H, g+ X+ c% P
AllocTest/test1 true false false 0.50816 warmup
5 `3 v" \. w$ z, k2 z. G AllocTest/test1 true false false 0.38104 warmup
! ?2 V+ u2 @# l6 Q* D" G AllocTest/test1 true false false 0.38372 sample
) {( S% N* b1 _/ n" i- e% N4 c( [ AllocTest/test1 true false false 0.4197 sample $ N# A3 B* b& q3 z f+ s' ~
AllocTest/test1 true false false 0.38647 sample
' \2 I& G' R8 o7 X% }; D/ f AllocTest/test1 true false false 0.38489 sample
% ~, K. o0 n6 D" p; x/ j AllocTest/test1 true false false 0.37503 sample # w& x- J5 p% _2 p
测量的结果是一个table对象,从结果中看出,测试一共进行了9次,前4次是这一节尾提到对代码的热身,这四次的结果在Objective中标记被做warmup,从数值上也可以大致看出它们和后5次测量有着不同的分布,计算均值的时候需要把它们剔除,正式的测试标记做sample测试,test1的sample测试一共运行了5次。检查r(2)得到类似的结果:
2 o* f) V5 e8 w4 U7 N1 _% Command Line , fontsize = \small B' d% ?9 O, b! M
>> r(2)- Z) B& ]% @( o" M, s" e5 T) K# O
- ^$ W+ e" z7 A3 ^+ r. z
ans = N/ `% E! z* Y9 a) s) Y& ?( e
/ U8 k, e! L2 B5 U& G0 G
MeasurementResult with properties:) R+ l6 t" j( d2 [
% L3 O: v7 k; c |. Q. } Name: 'AllocTest/test2') F* i, n) l& j: ^8 X: x; o
Valid: 1
5 C3 N- b! y5 c' m& t Samples: [4x7 table] %简报
2 c% Q5 h# o T+ Q, y TestActivity: [8x12 table] %原始数据
, P2 Z: h) a$ Q2 C% L2 _. H- o& j3 i% V' B- q2 t
Totals:
2 G$ r2 ^9 \1 a4 C$ j/ v 1 Valid, 0 Invalid./ W, Q* \, A U/ z: O0 g
>>
# w M2 d0 d/ Q( M2 _3 J>> r(2).TestActivity6 M6 w5 M* i% a; S+ t
) g" P6 J# A+ v- H& @+ S
ans =
6 G, l% ?9 n8 B( {8 @
, [/ B3 E8 ^( r6 u4 z o Name Passed Failed Incomplete MeasuredTime Objective - V/ u, u+ J$ A9 E
_______________ ______ ______ __________ ____________ _________
- Y+ q/ }8 i. \
' j9 y4 G8 W# V% X* e AllocTest/test2 true false false 0.018707 warmup
1 k E/ L7 N3 C AllocTest/test2 true false false 0.028393 warmup ; C4 Z* ~2 g$ F! B j; G) p
AllocTest/test2 true false false 0.013336 warmup
2 j I: a) q+ d# I/ z: a AllocTest/test2 true false false 0.012915 warmup
- J' N8 B* A. j v) q, v AllocTest/test2 true false false 0.013543 sample 5 ~, _9 J6 g9 j# L
AllocTest/test2 true false false 0.012904 sample
4 H/ r. b8 r! j& _- m* T m6 u: J AllocTest/test2 true false false 0.012778 sample
4 u' c% [, L {) P$ A' g! r( I AllocTest/test2 true false false 0.01312 sample
7 P0 ]) ~) l6 z# J( {+ @test2有4次warmup,4次sample测试。 按照默认设置,每个测试点都要先warmup代码四次,再进入正式的sample测试,有四个sample测试意味着test2这个测试点一共被运行了四次,test2的测试次数和test1的测试次数不同,每个测试点运行几次是由测量数据集合是否到达统计目标所决定的,误差范围和置信区间小节将详细介绍。 有了多次测量的结果,我们可以利用一个帮助函数,从table中取出sample的数据," q8 m- {) \/ F7 h/ _$ M* G
function dispMean(result)
- Y, Z6 l8 v9 O# L* l- l& a a fullTable = vertcat(result.Samples); J$ w! F9 q6 g' v
varfun(@mean,fullTable,'InputVariables','MeasuredTime','GroupingVariables','Name')
1 N; x/ B C4 `' ?: s- _, A3 yend, W9 J; i& @$ L' i3 n2 C4 {% U9 _
然后对它们求均值,得到的结果才是统计意义上的测量结果。8 q1 \# }& J, Z% E8 j
>> dispMean(r)& B$ t M: o1 }+ l
- K y+ C5 D% U; W9 {" e. e* `
ans =
* R' A3 e8 F l3 F( K
6 `! q9 L+ f0 P* V q% j& } Name GroupCount mean_MeasuredTime
( x/ V( [+ s- A, Q. h. }+ i; N; B/ g _______________ __________ _________________& j8 u! d/ H" ~- J$ u8 d' U
$ n( g+ y/ U4 T AllocTest/test1 5 0.38996 $ A) N* m7 ]9 y3 }- x- a: s+ g0 k3 J
AllocTest/test2 4 0.013086
6 w) |, d' l% t. D; b+ E% w) C0 A如果算法在不断的变化中,这样的测量结果也可以保留起来,从而追踪一段时间之内算法性能的变化。
|8 `( G: n5 G1 \5 q4 ]2 m. e误差范围和置信区间
$ d# K# h: o# A6 b# T6 [* ^Performance测试框架规定,一个测试点warmup四次之后,将再运行4到32不等的次数,直到测量数据达到0.05的Relative Margin of Error,0.95的置信区间为止,一但已有的测量值到达了上述的统计目标,就停止计算,如果超过32次还是没有达到0.05的Relative Margin of Error,框架仍然停止计算,但抛出一个警告。这就是为什么前节的test1运行了5次,而test2只运行了4次,它更快达到统计目标。 在每获得一次新的测量数据时,已有数据的Relative Margin of Error都将被重新计算,来决定是否需要再次运行测试点。下面的函数(需要统计工具箱) 帮助计算Relative Margin of Error, 用它来计算test1的数据可以验证相对误差在得到第4次测量结果仍然大于0.05,直到第5次计算小于0.05,于是停止继续测量5 m9 k T, N. x
% 计算Relative Margin of Error的函数, fontsize = \small % K. g( T. Y! u" E7 b
function er = relMarOfEr(data)
8 d' W% j6 T* s4 x( r L = length(data);% B" k3 n1 C- J! T. I* L
er = tinv(0.95,L-1)*std(data)/mean(data)/sqrt(L);
, u! B2 O; o" J+ |7 s2 P4 l* ? [end
% t) T* ]7 n. ?* v# Q, \: e>> relMoE(r(1).Samples.MeasuredTime(1:end-1)) % 取test1的第1到第4次测量结果! v" `- M- Y' O$ [
ans =7 W! t1 p* Q- m1 t* G
0.05195 o4 O3 l4 I7 C# E( T( {4 t
: o( Y& h0 @5 X5 V( X0 l# c& ?
>> relMoE(r(1).Samples.MeasuredTime) % 取test1所有测量结果
4 ?2 k( ?8 b3 W6 y! Rans =
0 S3 \% R# g9 k* C 0.04218 ]; n1 r% r' J, {! H( X
test2的测量结果类似,第4次的测量,整体数据达到统计目标3 B* U) O. W! f
>> relMoE(r(2).Samples.MeasuredTime(1:end-1))
/ n: b+ J, N9 y8 Oans =6 V+ a) R9 x7 b' S
0.05296 l. _9 f& r' Q5 I* o8 K. D: }
! v( y- `& P) y* T>> relMoE(r(2).Samples.MeasuredTime)
0 |& ?$ Q. o7 c: N6 p) \5 ians =
/ @1 o/ x3 ?+ z5 j3 a, m% b) y3 b g6 E: P# N! K G' }
0.03023 {3 c9 j: z5 ]5 e
所谓0.95的置信区间,就是说该系列的测量将确定一个区间,有百分之95的几率实际的真实值就在该区间中。调用函数fitdist得到置信区间(需要统计工具箱。)
h( s l+ d/ o/ R: L>> fitdist(r(1).Samples.MeasuredTime,'Normal')1 \; f- v) u8 r9 V
ans =9 G. w" a1 w- X1 @$ U4 Z
NormalDistribution
6 B7 x- ]$ P; K9 I0 I8 o3 ^
4 w; h4 ~4 s0 L# D( s Normal distribution
" _* ]- B6 [, J q# k mu = 0.389962 [0.368598, 0.411326] % 0.95置信区间' B# M3 C! f' d2 l
sigma = 0.0172059 [0.0103086, 0.049442]6 }7 L, p5 K% B: U: e! F, l
0.05的Margin of Error并不是所有的测试都能达到,事实上我们如果多次运行上述的同一个测试,很有可能test2的结果会有几次含有Warning。7 Q' C: ]0 N4 s. B0 I
>> r = runperf('AllocTest')% o; k3 l- | j# l" T1 t5 Q8 J
Running AllocTest
# D3 A% }. N" g8 ]9 R.......... f; H4 y7 W0 x& ]
.........." W; d/ ?8 `! k: N
..........& S3 |8 ?; H1 }0 t8 S0 M' ?$ @
..........
6 Y" a4 T' X4 |0 G- k7 F! e....Warning: The target Relative Margin of Error was not met after running the MaxSamples for% R: v+ g& ?1 a5 c
AllocTest/test2.
) G2 e6 J& h! ~. [) o % 测试点运行超过32次任没有达到统计目标
& g6 d- F. d3 M$ S5 EDone AllocTest
5 L' p3 J ?" x0 `: [+ M2 k% @__________1 m, R) d; y9 ^% @
1 z; b1 {/ Y( Y" |9 P5 v3 w$ hr = 2 B* @8 i" s- u$ q
' L+ ] c: e$ E% R: O5 o
1x2 MeasurementResult array with properties:' m# E: r4 v4 j# u
: D3 ?+ o6 _4 r# ^) A' j
Name
2 O3 A4 Q- O B- t. x7 S Valid
6 h" l8 m9 O9 r* ?& X$ w Samples- l7 J+ K9 j6 k6 U
TestActivity
! P/ _3 G) f8 H* W
9 t( Z# d5 i6 S2 V2 f; P3 B6 [Totals:
9 Q5 d0 R3 u& S) \2 y$ d7 l* y 2 Valid, 0 Invalid.
0 \ ~2 Z- O9 c2 K>> - b9 _1 K5 Y1 G: _% D4 Q
>> r(2)
. P2 O8 W% v* n- C' _, s- m+ Z2 A' p+ G
ans = + E* f1 o% |1 \$ z' s' ~
2 g& E3 j( h) [/ k1 }- @, r MeasurementResult with properties:. }6 v- |/ t2 E6 i7 P, Y
- C4 {" h! ^6 q( z
Name: 'AllocTest/test2'
2 a3 t( g, R% u Valid: 1
5 _- E1 Q: B( W% ?! |0 P7 ^' t Samples: [32x7 table]7 }- E6 J' I m4 Q& B! _
TestActivity: [36x12 table] % test2运行了一共4+32=36次
$ {$ v0 @5 T) H! }% V( m2 f# c8 s6 V; E8 C
Totals:
! }& j7 U1 F! j# a( `/ _. K- Y 1 Valid, 0 Invalid.8 W, J7 O/ _: o
Warning说明测量的操作过于的细微,噪音影响过大。我们可以通过增大计算量,或者放松统计目标来避免这个Warning,比如修改默认的Relative Margin of Error) t( v5 g6 C1 t7 Z% Y
% 增大Relative Margion of Error, fontsize = \small 4 @5 I$ S+ ~+ r7 Q6 t/ a
>> import matlab.perftest.TimeExperiment
2 I, i0 s* K% @1 Q# j>> experiment = TimeExperiment.limitingSamplingError('RelativeMarginOfError',0.10);
6 T5 P1 c7 z7 t9 i( c0 J>> suite = testsuite('AllocTest');5 q5 L, f. L" N" d0 p! E' B
>> run(experiment,suite)
4 b+ l# |5 ]' {3 ZRunning AllocTest
$ h5 K, @- W7 [/ K9 O; o/ g+ d# W..........
3 ]# t2 x2 |: b% s$ X......
6 M& _9 R& ^) J0 V8 J$ n. F& H7 S7 s# tDone AllocTest
1 U$ H. X+ q" p) S/ w5 a6 z* N__________
' l4 g; x8 t1 K
( v' T9 T, O3 B6 c- q! j1 O3 }" Z7 D* H8 n
ans =
6 P4 D- \6 Y- `" n* e3 x1 U4 I6 E: L/ _! M; O' }: n
1x2 MeasurementResult array with properties:
$ z( \% D+ Y# U3 O; `/ |' \6 i" i$ T/ u
Name( V1 U# G, ~: K; y
Valid! B* f2 \0 Q( L0 [
Samples
& D+ R# d+ z- C3 a% b TestActivity8 l B$ n# S2 F6 p- {& U
" }' X9 ]- m& S: J+ XTotals:
/ ~: |9 x; B& P G% Y: T 2 Valid, 0 Invalid.1 L3 c% c; a$ m0 ^1 q
性能测试的适用范围讨论6 [" g8 N* J- S9 M* r8 Q6 e
性能测试框架最初是Mathworks内部使用的一个框架,使用范围和单元测试一致,单元测试保证在算法的进化过程中,功能不退化;而性能测试保证算法的性能不退化。这样一个框架对MATLAB用户的算法开发显然会带来价值,但是我们要分清什么样的测量才是有价值的,构造测试类中的例子是一个简单易懂的例子,但作为MATLAB的用户,我们其实没有必要去测量和记录这些简单的MATLAB的操作的性能(这是Mathworks内部性能测试的主要工作) ,我们只需要记住它们定性的结果,比如给数组赋值之前要先分配,运算尽量向量化等等就可以了。性能测试框架真正能给我们带来的价值的用例,是如下的测试实际算法性能的情况,在用户的算法myAlgorithm的开发过程中,我们可以定期的运行该测试文件,保证性能不退化
6 y: m% B8 `7 L+ pclassdef AlgoTest1 < matlab.perftest.TestCase
; A' X6 s7 O$ e$ m! _! @; a methods(Test)0 M1 \7 d' ?/ I( j o1 N
function test1(testCase) ?/ z5 p- o; R2 ?; j/ n
myAlgorithm();. c$ O2 M: T7 }, J& Z
end
$ _. c& B4 b: g/ p7 ~' M end
* b9 h6 L1 @9 R; m2 A2 T8 D) S- Tend
$ N" {' J; g/ @7 u! p/ D* @ a或者比较两个算法,algorithm1可以代表一个旧的算法,algorithm2代表新的改进的算法,依靠Performance Testing 框架,我们可以得到可靠的数据到底algorithm2改进了多少; _ V |1 `( H+ c' J( Q( C& ~
classdef AlgoTest1 < matlab.perftest.TestCase
' z2 C- x% Z, l1 [5 t7 |' \ methods(Test)1 ^' K3 I- h/ y
function test1(testCase)
$ E6 \/ I3 g+ \0 Z, G- V5 b. L, j algorithm1();
$ v* ]0 o3 O+ B, w end
$ s) `4 b ^. ~+ O# X; Y# u' G0 F& B 8 l/ H: w; s6 y% g9 `5 u
function test2(testCase)
x5 d) \& ? Q; L- B* M# p algorithm2();
1 j* n4 _7 m9 G2 G+ O/ c end+ _/ m& e; L2 B6 j
end
2 u, k5 k+ x+ v6 G8 C0 @end |
|