找回密码
 注册
关于网站域名变更的通知
查看: 613|回复: 5
打印 上一主题 下一主题

FPGA异构计算架构对比分析

[复制链接]

该用户从未签到

跳转到指定楼层
1#
发表于 2021-8-17 09:50 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式

EDA365欢迎您登录!

您需要 登录 才可以下载或查看,没有帐号?注册

x
AI芯片主要分为CPU 、GPU、FPGA以及ASIC。其中以CPU、GPU、FPGA、ASIC的顺序,通用性逐渐减低,但运算效率逐步提高。5 b5 o* M1 ]! r$ O6 I: N" g

7 x; c% s8 E3 E" {2 OFPGA,即现场可编程门阵列,它是在PAL、GAL、cpld等可编程器件癿基础上进一步发展的产物。
. B" q" e1 ~" R. t) m4 ]) }9 ~
! `0 \* V& q& x& f4 \5 D为解决能耗限制,无法使处理器核心同时运作,及性能提升有限的问题,业界提出的另一个方案就是采用“定制计算”,也就是为特定的工作场景和负载优化硬件设计。FPGA(“现场可编程逻辑阵列”)应运而生。
% t0 f8 N) ^2 j  ~( H2 x
; }5 t. f/ u9 I4 Z# D1 d  G! ]5 dFPGA本质是一种可编程的芯片。可以把硬件设计重复烧写在它的可编程存储器里,从而使FPGA芯片可以执行不同的硬件设计和功能。FPGA具备以下优势:! f$ D; _1 e( O4 C
6 S$ n/ ]: s' c7 r1 `
可编程灵活性高:FPGA属于半定制电路,理论上,如果FPGA提供的门电路规模足够大,通过编程可以实现任意ASIC和DSP的逻辑功能。
2 j% B: b  O! r, g7 Z% I: n) M: l0 q& x$ L4 z3 z$ z0 w/ ?
, }. e3 H2 ~# e6 `& f7 p
开发周期短:FPGA不需布线、掩模和定制流片等,芯片开发流程简化。传统的ASIC和SoC设计周期平均是14到24个月,用FPGA时间可以平均降低55%。. v+ a$ V$ t( m) e6 p7 f. \$ m) S1 ^

3 W. u- {2 r  D, \, D
0 @& b1 e: Y! E并行效率高:FPGA属于并行计算,一次可执行多个算法指令。虽然普遍主频较低,但对部分特殊的任务,大量相对低速并行的单元比起少量高效单元而言效率更高。: Y* v( r" ?7 q
; ~# ^7 ?4 q; ?+ u; L  ^0 F/ x) ^
全球FPGA市场规模:17年67.5亿美元,预计2020年,CAGR为8.28%,预计2020年可达到84亿美元;全球FPGA竞争栺局:“两大两小”。0 [5 l- b  b$ X! Z0 O
/ _$ \% K  n4 d. k9 [/ q( T! e5 P
1. “两大”:赛灵思和Altera,主要布局5G以及AI,主打可编程逻辑器件,带有软件工具癿可编程逻辑技术、知识产权(IP)和技术服务,合计占87%市场仹额;! I5 l  C8 X/ k; y( F
2. “两小”:Lattice和Microsemi,其中Lattice主要面向IoT市场,而Microsemi主要聚焦航空航天和军工市场。. e% c6 T6 x/ ]9 D( h% [
1 W, m" p/ i2 I: l9 v" A# V

1 M+ E& s7 b# r+ P- Z" c目前国外龙头工艺技术已达7nm、10nm级,可实现4-5亿门器件规模。5G无线,数据中心,汽车,无线通俆, AI智能,工业,消费电子,医疗科学等,正在成为全球FPGA市场规模增长的主要驱劢力。
6 k6 g) s# X! S. E& f* Q' f0 f1 T
作为加速应用癿AI芯片,主要癿技术路线有三种:GPU、FPGA、ASIC。目前GPU是市场上用亍AI计算最成熟应用最广泛的通用型芯片,在算法技术和应用层次处于发展期, GPU由于其强大的计算能力、较低的研发成本和通用性将继续占领AI芯片的主要市场份额。
1 }0 Y1 d* i8 x' F+ t0 w, o& Q1 y
未来在激光雷达、无人机、无人驾驶、智能机器人等高端设备方面对计算能力也会有极大的提升,因此作为人工智能的底层计算能力(芯片)存在着大机会。其中, FPGA是可重新编程的硅芯片,在信号处理和控制应用中,它已经取代了专用集成电路( ASIC)和处理器。
- [! ^" L& r6 @, O" Y9 ]0 Z
; ]1 E! }1 }/ ZAI包括训练和推断两个环节,训练过程是指在已有数据中学习,获得判断能力癿过程。对神经网络而言,训练过程通过不断更新网络参数,使推断误差最小化;推断过程则是指对新癿数据,使用训练过程形成癿能力完成特定任务(比如分类、识别等)。推断是直接将数据输入神经网络并评估结果的正向计算。  F4 F' f0 ]/ `6 N1 U8 }
% c3 d; I9 V- }5 _, {
训练:计算规模庞大,涉及到大量训练数据和复杂癿深度神经网络,目前应用最多癿主要还是GPU。. I* m5 Q0 c- K+ r% Z2 o, r
/ o, O) O" i6 @6 v

1 Q/ e0 P) V5 {6 O推断:包括大量的矩阵运算,但相比较训练环节计算量较少,不仅CPU或GPU可以迕行运算,也可使用FPGA以及ASIC。
9 [3 ^% t: ]7 B1 C
% j, S% P: W. d; g, d8 N; E云端推断, y: ]4 U" W8 J/ a% M) L2 M
探索于服务器+FPGA芯片模式的企业包括阿里云、亚马逊、微软等。( P3 d) A, i" a, p  s% y3 Y/ {) g

! {3 m5 v  B& i/ v7 A+ O) d在现阶段端数据中心业务中,FPGA以其灵活性和可深度优化的特点,有望继GPU之后在该市场爆发。
8 ]* P8 F7 h, R8 U- y
( q$ x( H' z& d5 z. ]  @& [1 AFPGA可以处理用户实时计算请求以及小计量大批次的计算。
) C% y9 q; Z& P2 c  _  E3 R1 F4 Y9 j+ R: j
& S: ]& b, e$ P9 G  z
边缘推断2 k/ s) C$ F+ [3 ?8 ]0 r
, _9 E1 Z7 J' y: ?
未来人工智能应用场景对终端设备推断能力的要求高,FPGA是低功耗异构芯片,开发周期快,编程灵活,人工智能领域的解决方案目前正从软件演进到软件+芯片。6 W1 c# q; B, t0 k! O

# g( Z7 O$ L8 o  C' ?基亍CPU的传统计算架构无法充分满足人工智能高性能并行计算需求,需要FPGA等人工智能架构的专属芯片。' a. }! _* M$ I; [! `& b' z- z4 n. N5 |

. ~+ b& B' m- T5 y在目前的终端智能安防领域,也有厂商采用FPGA方案实现AI硬件加速
$ P! e' }1 b- Y: d) ^
$ R4 S( N1 F2 d9 i) W& {1 {

该用户从未签到

2#
发表于 2021-8-17 10:57 | 只看该作者
AI芯片主要分为CPU 、GPU、FPGA以及ASIC。其中以CPU、GPU、FPGA、ASIC的顺序,通用性逐渐减低,但运算效率逐步提高。: Q' I/ e' S/ d' r( P$ t7 q

! ~4 Q: L9 Z# N, f( ]( V3 d% t

该用户从未签到

3#
发表于 2021-8-17 13:24 | 只看该作者
FPGA不需布线、掩模和定制流片等,芯片开发流程简化。传统的ASIC和SoC设计周期平均是14到24个月,用FPGA时间可以平均降低55%8 C4 d( ]" s6 `* [/ E! q. |( e

该用户从未签到

4#
发表于 2021-8-17 14:05 | 只看该作者

' [# D. O. Q* S/ X1 r9 M" q& b1 }可编程灵活性高:FPGA属于半定制电路,理论上,如果FPGA提供的门电路规模足够大,通过编程可以实现任意ASIC和DSP的逻辑功能

该用户从未签到

5#
发表于 2021-8-17 14:40 | 只看该作者
计算规模庞大,涉及到大量训练数据和复杂癿深度神经网络,目前应用最多癿主要还是GPU% W) V$ l7 U# D) T% \
  • TA的每日心情
    奋斗
    2025-1-1 15:26
  • 签到天数: 584 天

    [LV.9]以坛为家II

    6#
    发表于 2021-8-19 19:29 | 只看该作者
    谢谢,努力学习
    您需要登录后才可以回帖 登录 | 注册

    本版积分规则

    关闭

    推荐内容上一条 /1 下一条

    EDA365公众号

    关于我们|手机版|EDA365电子论坛网 ( 粤ICP备18020198号-1 )

    GMT+8, 2025-8-12 01:16 , Processed in 0.109375 second(s), 23 queries , Gzip On.

    深圳市墨知创新科技有限公司

    地址:深圳市南山区科技生态园2栋A座805 电话:19926409050

    快速回复 返回顶部 返回列表