|
EDA365欢迎您登录!
您需要 登录 才可以下载或查看,没有帐号?注册
x
AI芯片主要分为CPU 、GPU、FPGA以及ASIC。其中以CPU、GPU、FPGA、ASIC的顺序,通用性逐渐减低,但运算效率逐步提高。5 b5 o* M1 ]! r$ O6 I: N" g
7 x; c% s8 E3 E" {2 OFPGA,即现场可编程门阵列,它是在PAL、GAL、cpld等可编程器件癿基础上进一步发展的产物。
. B" q" e1 ~" R. t) m4 ]) }9 ~
! `0 \* V& q& x& f4 \5 D为解决能耗限制,无法使处理器核心同时运作,及性能提升有限的问题,业界提出的另一个方案就是采用“定制计算”,也就是为特定的工作场景和负载优化硬件设计。FPGA(“现场可编程逻辑阵列”)应运而生。
% t0 f8 N) ^2 j ~( H2 x
; }5 t. f/ u9 I4 Z# D1 d G! ]5 dFPGA本质是一种可编程的芯片。可以把硬件设计重复烧写在它的可编程存储器里,从而使FPGA芯片可以执行不同的硬件设计和功能。FPGA具备以下优势:! f$ D; _1 e( O4 C
6 S$ n/ ]: s' c7 r1 `
可编程灵活性高:FPGA属于半定制电路,理论上,如果FPGA提供的门电路规模足够大,通过编程可以实现任意ASIC和DSP的逻辑功能。
2 j% B: b O! r, g7 Z% I: n) M: l0 q& x$ L4 z3 z$ z0 w/ ?
, }. e3 H2 ~# e6 `& f7 p
开发周期短:FPGA不需布线、掩模和定制流片等,芯片开发流程简化。传统的ASIC和SoC设计周期平均是14到24个月,用FPGA时间可以平均降低55%。. v+ a$ V$ t( m) e6 p7 f. \$ m) S1 ^
3 W. u- {2 r D, \, D
0 @& b1 e: Y! E并行效率高:FPGA属于并行计算,一次可执行多个算法指令。虽然普遍主频较低,但对部分特殊的任务,大量相对低速并行的单元比起少量高效单元而言效率更高。: Y* v( r" ?7 q
; ~# ^7 ?4 q; ?+ u; L ^0 F/ x) ^
全球FPGA市场规模:17年67.5亿美元,预计2020年,CAGR为8.28%,预计2020年可达到84亿美元;全球FPGA竞争栺局:“两大两小”。0 [5 l- b b$ X! Z0 O
/ _$ \% K n4 d. k9 [/ q( T! e5 P
1. “两大”:赛灵思和Altera,主要布局5G以及AI,主打可编程逻辑器件,带有软件工具癿可编程逻辑技术、知识产权(IP)和技术服务,合计占87%市场仹额;! I5 l C8 X/ k; y( F
2. “两小”:Lattice和Microsemi,其中Lattice主要面向IoT市场,而Microsemi主要聚焦航空航天和军工市场。. e% c6 T6 x/ ]9 D( h% [
1 W, m" p/ i2 I: l9 v" A# V
1 M+ E& s7 b# r+ P- Z" c目前国外龙头工艺技术已达7nm、10nm级,可实现4-5亿门器件规模。5G无线,数据中心,汽车,无线通俆, AI智能,工业,消费电子,医疗科学等,正在成为全球FPGA市场规模增长的主要驱劢力。6 k6 g) s# X! S. E& f* Q' f0 f1 T
作为加速应用癿AI芯片,主要癿技术路线有三种:GPU、FPGA、ASIC。目前GPU是市场上用亍AI计算最成熟应用最广泛的通用型芯片,在算法技术和应用层次处于发展期, GPU由于其强大的计算能力、较低的研发成本和通用性将继续占领AI芯片的主要市场份额。
1 }0 Y1 d* i8 x' F+ t0 w, o& Q1 y
未来在激光雷达、无人机、无人驾驶、智能机器人等高端设备方面对计算能力也会有极大的提升,因此作为人工智能的底层计算能力(芯片)存在着大机会。其中, FPGA是可重新编程的硅芯片,在信号处理和控制应用中,它已经取代了专用集成电路( ASIC)和处理器。
- [! ^" L& r6 @, O" Y9 ]0 Z
; ]1 E! }1 }/ ZAI包括训练和推断两个环节,训练过程是指在已有数据中学习,获得判断能力癿过程。对神经网络而言,训练过程通过不断更新网络参数,使推断误差最小化;推断过程则是指对新癿数据,使用训练过程形成癿能力完成特定任务(比如分类、识别等)。推断是直接将数据输入神经网络并评估结果的正向计算。 F4 F' f0 ]/ `6 N1 U8 }
% c3 d; I9 V- }5 _, {
训练:计算规模庞大,涉及到大量训练数据和复杂癿深度神经网络,目前应用最多癿主要还是GPU。. I* m5 Q0 c- K+ r% Z2 o, r
/ o, O) O" i6 @6 v
1 Q/ e0 P) V5 {6 O推断:包括大量的矩阵运算,但相比较训练环节计算量较少,不仅CPU或GPU可以迕行运算,也可使用FPGA以及ASIC。
9 [3 ^% t: ]7 B1 C
% j, S% P: W. d; g, d8 N; E云端推断, y: ]4 U" W8 J/ a% M) L2 M
探索于服务器+FPGA芯片模式的企业包括阿里云、亚马逊、微软等。( P3 d) A, i" a, p s% y3 Y/ {) g
! {3 m5 v B& i/ v7 A+ O) d在现阶段端数据中心业务中,FPGA以其灵活性和可深度优化的特点,有望继GPU之后在该市场爆发。
8 ]* P8 F7 h, R8 U- y
( q$ x( H' z& d5 z. ] @& [1 AFPGA可以处理用户实时计算请求以及小计量大批次的计算。
) C% y9 q; Z& P2 c _ E3 R1 F4 Y9 j+ R: j
& S: ]& b, e$ P9 G z
边缘推断2 k/ s) C$ F+ [3 ?8 ]0 r
, _9 E1 Z7 J' y: ?
未来人工智能应用场景对终端设备推断能力的要求高,FPGA是低功耗异构芯片,开发周期快,编程灵活,人工智能领域的解决方案目前正从软件演进到软件+芯片。6 W1 c# q; B, t0 k! O
# g( Z7 O$ L8 o C' ?基亍CPU的传统计算架构无法充分满足人工智能高性能并行计算需求,需要FPGA等人工智能架构的专属芯片。' a. }! _* M$ I; [! `& b' z- z4 n. N5 |
. ~+ b& B' m- T5 y在目前的终端智能安防领域,也有厂商采用FPGA方案实现AI硬件加速$ P! e' }1 b- Y: d) ^
$ R4 S( N1 F2 d9 i) W& {1 {
|
|