对于AI行业,算法、算力和数据是三大基础要素。深度学习模型的不断优化带来的算法的成熟应用,5G网络以及边缘、终端的普及让海量数据的获取和传输变得唾手可得,而将算法和数据协调统一处理的算力资源就成为当前AI发展的关键制约因素了。
e+ Z' a7 Y$ x9 _% o+ z
5 y) { u$ J8 \2 B& ^
& I7 l$ E5 q6 [+ u* z5 A/ `* r
3 `- y6 I; a+ ]4 L/ S- i+ v & d; r( D1 R- |
( l9 D. K4 F& r. D- S. B4 i# V2 f6 P0 x7 M8 M& K5 `
4 A9 \! o0 b" N算力的提升在于芯片的性能是否得到飞跃。由于深度学习算法对芯片性能有着极为苛刻的效率要求和超高的并行计算要求,传统的通用CPU在AI计算当中性价比极低。因此,适合于深度学习要求的海量并行计算和计算加速的AI芯片就成为当前AI巨头们角力的赛场。1 ^+ S" j9 |& {: N$ c5 m
' b/ v5 i$ M9 U- m
广义上来说,包括像GPU、FPGA以及 ASIC(专用芯片)这些提供AI算力的芯片都可以称之为AI芯片。按照任务划分,AI芯片可以分为训练芯片和推理芯片;按部署位置划分,可以分为云端芯片、边缘侧和终端芯片。$ d, S* Q% J0 b- {5 z
7 n- ~! R. T r8 W( `' A1 x% K
其中,训练芯片对算力、精度和通用性要求较高,一般部署在云端,多采用“CPU+加速芯片”这类异构计算模式;推理芯片更加注重综合性能,更考虑算力耗能、延时、成本等因素,在云端和边终端都可以部署。# e4 i" y' [, M% f% [
9 G/ i0 {+ `; S9 S
云端AI芯片部署在公有云、私有云和混合云等大型数据中心,能满足海量数据处理和大规模计算,可通过多处理器并行完成各类AI算法的计算和传输,具有通用性。边终端AI芯片要求体积小、能耗少、性能略低,主要用于摄像头、手机、边缘服务器等终端设备中,满足有限的AI能力。( Y% Y- I% G2 u- x
9 G u: B% `3 W从2016年谷歌TPU专用芯片大放异彩之后,AI芯片快速经历了2017年资本涌入、巨头纷至沓来,2018年新玩家争相入局、初露峥嵘,2019年至今,AI芯片进入全面商用落地的激烈竞争格局当中。9 C0 d1 D3 b M# [
6 {& ~4 K! d: i0 f! {' q1 G按照Gartner数据,伴随着全球AI产业的快速增长,未来5年,AI芯片仍然会以每年50%的速度增长。在过去的一年当中,AI芯片在云端、边缘侧以及终端领域都取得了明显进展。
& x- r5 y! V. H& m8 L: ^' B/ g7 v& |* R
我们将通过梳理AI芯片在这三大细分市场的最新进展,来进入其行业纵深,找到AI芯片行业发展的最新动向。7 `% {! {3 V8 U3 ]
# A& s4 A( w1 |# V3 ] c1 P/ A
3 }% Y0 \5 B% M- H- ~9 \" z5 G. y3 L3 S- f
) a! b3 i* B- d; P1 S# C' q# H9 ]: D: ]+ y/ s4 o; M/ L
" z/ D% `) `9 P i* y" S1 K4 i 5 ~9 Y2 p5 I8 R
5 |* U. [9 w% e2 |' r/ v在云端的数据中心,无论是深度学习的算法训练还是推理服务,都绕不开英伟达的GPU产品。AI算法训练的主要芯片配置是GPU+ASIC,全球主流的云端硬件平台都在使用英伟达的GPU 进行加速。而在推理服务上,主要还是采用CPU+GPU的方式进行异构计算,这得益于GPU强大的并行计算能力、通用性以及成熟的开发环境,但GPU的高能耗和昂贵成本,也成为众多云厂商的心中隐痛。
( I+ ]& T: `9 G: J" g9 k# @3 y1 K( I
# H$ [! S8 n- W$ k/ s相比之下,FPGA的低延迟、低功耗、可编程性优势和ASIC的特定优化和执行特定模型的效能优势就非常突出了。因此,我们看到越来越多的云厂商和芯片厂商开始尝试CPU+FPGA或CPU+ASIC 这样的异构方式,推出更符合自身云端算力要求的AI芯片。
$ y' c- W# a3 ^* K% L+ `4 }
2 s- E. ]4 m9 b0 P! G2 e
' B: G- J7 w& k6 A7 {. B
& r/ Z7 m$ r$ S- k- S
& }. O6 T1 _2 ]
! e. }; n6 }' {2019年4月,高通推出了面向数据中心推理计算的云端AI芯片Cloud AI 100,峰值性能超过350TOPS,与其他商用方案相比,每瓦特性能提升10倍。/ ?/ L: f: t0 w( H9 W
2 l1 S7 ^1 k1 Q
而早先云服务巨头亚马逊也已推出了机器学习推理芯片AWS Inferentia,最高算力可以达到128 TOPS,在AI推理实例inf1可搭载16个Inferentia芯片,提供最高2000TOPS算力。, |7 ]* M* F8 y; r; u2 u
5 Z; {/ J; E9 a而在国内,阿里巴巴在去年9月推出自研架构和算法的AI推理芯片含光800,主要用于和电商业务相关的云端视觉场景,在RESNET50基准测试中获得单芯片性能第一的成绩。
' u1 [, {+ s& I( n2 U& ]* k+ y* K1 t
华为则推出了全球最快的AI训练集群Atlas900,集成了数千颗昇腾910芯片,总算力可以输出256-1024 PFLOPS@F16,相当于50万台PC计算能力的强劲算力。
* f! \( z8 J6 K9 _4 W/ q
' h p5 P3 O) l( W+ \2 A去年底,腾讯投资的燧原科技推出面向云端数据中心的AI训练加速卡云燧T10,单卡单精度算力达到20TFLOPS,可以为大中小型数据中心提供了单节点、单机柜、集群三种模式。此外,像寒武纪、比特大陆也在去年从细分市场进入云端AI芯片市场,试图抢占一定的云端AI芯片的市场份额。
; F5 Q( X0 S* D4 p, x; r* I* p2 u/ p( m" x0 r6 e0 ]0 A
Gartner数据显示,全球AI服务器及AI芯片市场规模自2016年到2020年都将保持持续的高速增长,而全球云端AI芯片当中GPU的市场份额却呈现出持续下滑的趋势,预计到2022年云端训练GPU占比将降至60%,云端推理GPU占比更是只有30%。6 @9 v2 ?( D/ F6 [
/ u# p% n7 v7 E: p/ V4 s& b3 G- V这意味着云端AI芯片的专用芯片的市场规模将进一步扩大,新入局玩家们特别是云服务厂商的巨头玩家们都会尽可能在自家的数据中心部署结合自身算法的AI芯片。
3 ]' M3 R+ d, m1 [- G' x) U e7 D1 A, L" f2 W) o
2020年,随着高通、英特尔等芯片巨头、AWS、阿里、华为等云厂商以及芯片初创公司产品的落地,云端AI芯片市场的竞争将更趋激烈,未来将进一步削弱英伟达的话语权。
3 x# y* y5 p6 |& u, }, K
: R$ N9 u5 v2 C0 @$ N2 N0 N4 A
. k- L$ N' g* Z0 }4 G8 S( y. |) e- O& _: d/ k
5 g3 N5 ]/ \ U) W, ]9 @ e \( ~& }$ P
6 t& N3 _+ i- m$ r 5 X" }2 V5 Z( h W/ n6 A
6 T( r& N3 ?- }( v g: i
随着5G、自动驾驶、IoT等新技术普及和配套设备的海量涌现,接下来将为边缘侧AI芯片提供更大的发挥空间。特别是5G网络的普及将带来边缘侧数据处理方式的变革,为边缘侧AI的工作负载提供了更多需求。
$ b+ |( t* N: I! C
: S V0 x0 T2 B8 {边缘计算正在被视为AI的下一个重要战场,原有的在云端、终端都有所积累的厂商,都希望通过边缘AI芯片的布局,完善云、边缘、终端生态,打造一体化的计算格局。" E1 Q% c W% Y5 R# ~# P6 h
2 ?- v, n/ R/ ~% l
早在2018年,谷歌就发布了用于边缘推理的微型AI加速芯片——Edge TPU,专为企业在IoT设备中的机器学习任务而设计。在去年3月,谷歌还推出了千元级搭载Edge TPU芯片的开发板,可以加速硬件设备上的模型推理。5 v! P0 A7 z( @2 O
1 ^5 @( r9 D! s% C# |. S* Q
( A7 S, t( `% b/ A
. m+ L% r& P; Y
(谷歌Edge TPU开发板)
3 A. h* G% ]( @4 l% D" l3 h) J( o
) x4 T1 a6 A8 m: z, t
似乎为回应谷歌的这一挑战,英伟达发布了面向嵌入式物联网的边缘计算设备Jetson Nano,适用于入门级网络硬盘录像机、家用机器人以及具备全面分析功能的智能网关等应用。而在去年11月,英伟达又发布了边缘AI超级计算机Jetson Xavier NX,能够在功耗10W的模式下提供最高14TOPS,在功耗15W模式下提供最高21 TOPS的性能,为更小尺寸、更低功耗的嵌入式边缘计算设备提供了AI推理能力。8 e+ o/ w' |8 C5 X1 u
; f3 V( _2 _% K" L + J6 f) r. ~7 F$ \/ n, K* w0 M/ N
![]()
- o( _9 [9 ]8 Q8 S' x% P( h & e: V: Q! f# K
(英伟达Jetson Xavier NX)
5 I3 f$ x+ z8 D( A# B2 N$ z
! G. S- r2 n+ m6 }同样在去年底,寒武纪发布用于深度学习的SoC边缘加速芯片思元220,采用台积电16nm工艺,最大算力32TOPS,功耗控制在10W,支持TensoRFlow、Caffe、mxnet以及pytorch等主流编程框架。根据其公布的数据,参数性能可以比肩英伟达去年发布的 Jetson 系统级模块——AGX Xavier 和Jetson Xavier NX。* v) j7 b: m0 S0 v( D* M$ R
1 u0 x$ A0 U, F* y- u% D
在去年7月的百度AI开发者大会,联合三大运营商、中兴、爱立信、英特尔等,发起百度AI边缘计算行动计划,旨在利用AI推理、函数计算、大数据处理和产业模型训练,推动AI场景在边缘计算的算力支撑和平台支持,加速百度AI应用生态在5G、物联网等新型场景下快速落地。
! O7 S& s% `1 g1 m0 l% |) f1 m3 t1 ]; o3 ^( v# Q0 o1 J. }( ~8 [
在自动驾驶这类专用边缘场景上,AI芯片也出现加速势头。目前,由于自动驾驶算法仍在快速更迭和进化,大多自动驾驶芯片使用 GPU+FPGA 的解决方案。最典型的产品如英伟达的DRIVE PX系列及后续的Xavier、Pegasus系列等。在去年 CES上,英伟达推出了全球首款商用L2+自动驾驶系统NVIDIA DRIVE AutoPilot。DRIVE AutoPilot的核心就是Xavier系统级芯片,其处理器算力高达每秒30万亿次。
! T: ]& A( s3 S. f. |6 k
1 P' g. d' z9 y: h6 h0 r2 z英特尔虽然入局自动驾驶芯片市场较晚,但通过一系列大笔收购,很快推出了完整的自动驾驶云到端的算力方案,包括英特尔凌动/至强+Mobileye EyeQ + Altera FPGA,其中,英特尔收购 Mobileye推出的 EyeQ5,可以支持 L4-L5 自动驾驶,预计在今年量产。' _1 v0 h C. C, y( l
+ E. h5 e1 [. w+ [而在国内,国内初创企业如地平线、眼擎科技、寒武纪也都在积极参与。地平线去年正式宣布量产国内首款车规级AI芯片“征程二代”,采用台积电28nm工艺,可提供超过4TOPS的等效算力,典型功耗仅2瓦,延迟少于100毫秒,多任务模式下可以同时运行超过60个分类任务,每秒钟识别目标数超过2000个,面向车联网对强实时响应的需求。
1 x2 Q( c0 ?! h& T, i* Z6 i8 v2 \- r/ F; _- A0 {
据预测,从2018年到2022年全球边缘计算相关市场规模的年复合增长率将超过30%,到2022年,边缘计算市场规模将超万亿,与云计算市场规模不相上下。正因为边缘计算如此巨大的市场前景,国内外行业巨头纷纷开始边缘侧AI芯片的布局。 E0 }4 R9 b" X: {9 o5 c! j! i% ~
p. ^. o- ?7 i4 ^
对于杀入边缘侧的AI芯片巨头而言,实现云-边-端-网的多方协同,其中就必须要完成从云端到边缘的端到端解决方案的布局。这一动作客观上也加剧了边缘侧AI芯片的竞争态势,为AI初创企业带来更多的生存压力。
3 o9 U3 Q" p! ]. P: p + a: ?9 _' _' h; K2 X* C0 N4 H
0 g l% [$ m5 o s: ]9 l/ B
+ ?' E4 B. O! A" ]+ _. m2 }* u( q1 b
! |6 z5 f# c' i% L+ ^% v7 E U& @, J+ R, C0 V1 U
* @7 G& m- Z; m5 ?" g
1 u. b( q6 S k" l
: O8 O" Q9 }( _) ^( o移动端AI芯片市场目前主要是在智能手机上。为实现差异化竞争,各手机厂商都加入了AI功能的开发,通过在手机SoC芯片中加入AI引擎,调配现有计算单元来实现AI计算,或者直接加入AI协处理器来实现AI功能的运行。+ L0 L7 e" w* h {" I
$ T; p Q h# I& U
智能手机作为一种多传感器融合的综合数据处理平台,要求AI芯片具备通用性,能够处理多类型任务能力。而智能手机又受制于电池容量大小和电池能量密度限制,AI芯片在追求算力的同时对功耗有着严格的限制。6 \" ?6 n' D' y# ?
/ o/ p! s& L/ J# m: ]* Y! A
目前主流厂商都开发专用的ASIC芯片或者是使用功耗较低的DSP作为AI处理单元。 Z* L4 O% q4 b* w/ D9 X
5 }5 A, }2 m1 N" M# I: l
( M7 b& L. S: W: H
N" U/ s+ K9 ~![]()
) Q" {" I. C- u4 ]
; p8 y) i) ?/ Y9 r4 B根据一份最新的手机AI芯片排名,高通骁龙865、苹果A13和华为麒麟990分列前三。+ D* F* V" W a* a" a: E
5 u( w1 Q+ A" Q" x5 U( Q6 s
排在第一名的高通骁龙865,采用了全新的第五代AI Engine,可以实现高达每秒15 TOPS的运算,相比骁龙855提升了两倍的运算能力。通过AI异构多核可编程架构的设计思路,集成了传感器中枢,利用多种不同引擎协同完成AI任务,在精度和功耗之间取得平衡。! b6 \# S, i4 v1 _
' U1 B" Z; _' A- W& o1 T" ]2 |% s
苹果A13处理器,采用第二代7nm工艺,专为高性能和低功耗而量身定制,拥有85亿个晶体管。其GPU为四核心设计,速度提升20%,功耗降低40%,也就是在性能大幅提升的前提下续航并没有降低。* V3 v! S; B5 P$ L
) u6 x- j) I# S! A$ P华为去年推出的麒麟990 5G的NPU,采用双大核+微核的方式,其大核负责性能,微核拥有超低功耗,其中微核在人脸检测的应用场景下,能耗比大核工作降低24倍。
* C; F, p ]% b' x6 s" |" ] \ }; [ v) i& {/ Z! X3 Y
根据信通院报告统计,2017年全球手机AI芯片市场规模3.7亿美元,占据全球AI芯片市场的9.5%。预计2022年将达到38亿美元,年复合增长率达到59%,未来五年有接近十倍的增长。而目前能够在智能手机Soc芯片中取得领先位置的仍然只有高通、苹果、华为、三星等少数玩家,雄厚的资金实力和海量的销售规模,使得每家都愿意拿出真金白银来投入到新一代的AI芯片研发上面,在芯片的性能和功耗平衡上面实现碾压和赶超。0 ^% w" D$ {# Q" K* O( b6 J
- ^4 q0 G7 C: {& J9 t
6 u" s" Z/ n, w" V9 p
6 y, ?' |/ J5 n$ Z. v3 T# k" ?8 W# |
. ~ V$ A/ X; w e& k) ]$ O
' N0 a* z# T5 \5 ]! y- ?
1 h3 g' b( I6 Y. s( u6 }* {& a
# v2 h4 N6 L* B1 Y) O9 f3 Q: s有媒体分析,根据行业发展规律,AI芯片在经历了短暂的资本狂欢和创业高峰之后,会在2020年之后,出现第一批出局者,开始行业的大洗牌。! w0 E3 \) N( n' _
+ |9 J: k6 h _
这一结论自然具有一定的道理。由于AI芯片产业是一个高投入、长周期,依靠量产规模优势才能艰难取胜的产业。同时由于AI技术发展迅猛,芯片的设计周期可能无法赶上算法的迭代周期,这很容易造成AI芯片从设计到落地,已经无法赶上当前的计算需求。
9 V& L6 P+ [- N2 [5 Y% o) C0 f0 z
+ h/ c1 B4 \+ D* R* Q- G6 U u此外,在对成本和能耗极为敏感的移动终端,还需要特别关注AI芯片的计算效能,达到低功耗、小体积、开发简易,这些都需要探索架构上的创新。
+ q1 b Z8 Q! g2 k$ Y2 |: r* g6 V* A% L4 t: [! `
实际上,2019年有不少商用的AI芯片,已经开始面临芯片难以落地的困境,原因多种多样,比如芯片本身带来的性能提升不够有吸引力,芯片不适配应用的需求,易用性不高,选择的行业难以突破等等。
" A/ T+ c8 ~3 n7 c; S4 B* | B$ V. \ r# w
: R/ D- o8 [: V4 N+ _
! A! R* g1 B5 M4 w$ G
7 d9 t# j( |4 l c
显然,种种限制条件和不利因素会更有利于那些入局早、实力雄厚的芯片巨头和互联网巨头,而对那些依靠融资存活的AI芯片初创企业们带来巨大压力。
5 D# u; l( O9 V, Y& V m# |5 T4 [8 Q2 [2 h8 v# c
但这并不意味着AI初创企业都会进入被洗的哪一阵营。除了少数巨头把持的云端芯片市场、日趋头部化的智能手机Soc芯片市场,未来AI芯片还将在智能家居、智能安防、自动驾驶等边缘、终端上面有着巨大的市场空间,同时在医疗、教育、零售、交通等行业有着丰富的应用场景。当AI芯片的盘子足够大的时候,多样化生态仍然会保持一段时间。
. k+ `8 d2 N9 a j
9 e8 c+ _! p- V- H# p当前全球AI芯片产业仍然处于产业化的早期阶段,最新推出的AI芯片主要还是集中在专用芯片领域,AI芯片初创企业仍然可以在ASIC上取得独有的优势。例如在AI架构上的探索上面,国内的一些初创企业也已提出一些可以适用于多种算法需求、多种场景需求的全新架构。可重构架构以及存算一体成为未来AI芯片实现性能突破的主要方向。
' ?% \: J, N% r( y& r! x
& q- ~8 X# A N: w, B7 ^( Q- L% q7 F7 Y在未来,芯片的易用性、有效算力、能效比以及落地速度,都将成为影响AI芯片产品失败与否的关键。在各个方面都持续做好迭代创新,才是考验所有这些AI芯片玩家们能否在始终在场不掉队的关键因素。
, n3 o- c5 }' [8 d# p
3 N y5 N+ X' I- G1 {8 e& E# X$ L- \
1 ^( N3 i& w6 V1 a