找回密码
 注册
关于网站域名变更的通知
查看: 313|回复: 2
打印 上一主题 下一主题

一种基于FPGA的图神经网络加速器解决方案

[复制链接]
  • TA的每日心情
    开心
    2022-1-29 15:03
  • 签到天数: 2 天

    [LV.1]初来乍到

    跳转到指定楼层
    1#
    发表于 2022-2-28 14:55 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式

    EDA365欢迎您登录!

    您需要 登录 才可以下载或查看,没有帐号?注册

    x
    得益于大数据的兴起和计算能力的快速提升,机器学习技术近年来经历了革命性的发展。诸如图像分类、语音识别和自然语言处理等机器学习任务,都是对具有一定大小、维度和有序排列的欧几里得数据进行处理。然而,在许多现实场景中,数据是由复杂的非欧几里得数据(例如图形)表示的。这些图形不仅包含数据,还包含数据之间的依赖关系,例如社交网络、蛋白质分子结构、电子商务平台中的客户数据等。数据复杂性的提升给传统的机器学习算法设计及其实现技术带来了严峻的挑战。在这种情况下,许多全新的基于图形的机器学习算法或图神经网络(GNN)不断在学术界和工业界涌现。
    ' n3 O# S$ ~3 @. r# dGNN对计算能力和存储有非常高的要求,而且其算法的软件实现效率非常低。因此,业界对GNN的硬件加速有着非常迫切的需求。尽管传统的卷积神经网络(CNN)硬件加速有很多种解决方案,但GNN的硬件加速还没有得到充分的讨论和研究。在撰写本白皮书时,谷歌(Google)和百度(Baidu)都无法搜索到关于GNN硬件加速的中文研究资料。本白皮书的写作动机是将国外最新的GNN算法、对加速技术的研究以及对基于现场可编程逻辑门阵列(FPGA)的GNN加速技术的探讨相结合,并以概述的形式呈现给读者。
    / i5 c& ^& r( F4 m对图神经网络(GNN)的介绍
    - G' k3 _6 F( E, l在宏观层面上,GNN的架构与传统CNN有很多相似之处,诸如卷积层、池化、激活函数、机器学习处理器(MLP)、全连接层(FC layer)等模块,这些都可以应用到GNN。下图展示了一个相对简单的GNN架构。
    6 ^# I6 F# D" M6 L+ l
    - A6 h8 Y6 J% d2 C8 w

      C+ ?- f* e2 a+ O% G  W9 Z' H图1:典型的GNN架构
    ; \4 H8 R) U  L% n% X& S但是,GNN中的图形数据卷积计算与传统CNN中的二维卷积计算不同。以下图为例,红色目标节点的卷积计算过程如下所示:3 T+ x! f! O2 o' ~9 h; X4 ]" Y1 n
    1、图卷积 - 使用近邻函数对周围节点的特征进行采样,并计算平均值。相邻节点的数量是不确定且无序的(非欧几里得数据)
    ( ]3 M- [' }* a4 i1 o; s: k1 \) S- v2、二维卷积——使用卷积核对周围节点的特征进行采样,并计算加权平均值。相邻节点的数量是确定且有序的(欧几里得数据)
    - x7 ^: s2 {- E: d. J/ M9 a' U& h* T8 ?

    8 }7 W$ J# g5 q* c图2:图卷积和二维卷积6 z! K% h( Q4 g# o9 y  J
    对GraphSAGE算法的介绍
    4 s' T! M, f1 _: ?学术界对GNN算法进行了大量的研究和探讨,提出了相当多的创新实现方法。其中,由斯坦福大学(Stanford University)于2017年提出的GraphSAGE是一种归纳表示学习算法,用于预测大规模图中动态的、全新的、未知的节点类型,还专门针对节点数量庞大、节点特征丰富的图进行了优化。如下图所示,GraphSAGE算法的计算过程可以分为三个主要步骤:" q1 L2 c+ g$ z9 e8 |. g" U
    1、相邻节点采样——用于降低复杂性,一般采样两层,每层采样几个节点。
    ( ~2 z0 k% ?- _+ c3 ]6 Z2、聚合——用于嵌入目标节点,即图的低维向量表示。
    5 y( p! }6 w3 O# d/ k/ `3、预测——使用嵌入作为全连接层的输入,以预测目标节点d的标签。
    / d  W1 ]1 q+ I$ e7 Q. e8 |. @1 `/ z' C1 L9 |6 y# ]- I- O
    $ s3 \/ v. t) ~) `8 D5 E3 J8 L$ @
    图3:GraphSAGE算法的可视化表示
    0 N1 N8 Z) x. u1 q, t- a- j' J" z1.Sample neighborhood
    1 @4 R) l5 d  A( d4 i3 n( b  e1、样本邻域
    1 f9 A- Z% ~5 r. Q) ~; v2.Aggregate feature information from neighbors% S* `7 _# Y* Q! c0 w7 X; T7 _" `, f
    2、聚合来自邻域的特征信息
    ' x2 q- }( G& b$ S9 j3.Predict graph context and label using aggregated information, U" F: v: X0 d2 m$ w: K
    3、利用聚合信息预测图形情况和标签
      J: N0 E* v, o+ |7 x为了在FPGA中实现GraphSAGE算法加速,必须了解其数学模型,以便将算法映射到不同的逻辑模块。下图所示的代码说明了该算法的数学过程。3 `2 b) U, @: }+ u* R& w

    ; d! x8 c7 e0 [1 C+ L9 d* P

    ! V$ v  Y% E9 v5 u8 p! @/ x7 ~图4:GraphSAGE算法的数学模型8 y2 D  p0 l3 M, x! }/ ^/ S
    Step 1: Sample a sub-graph node with neighborhood function N[}.
    ) u6 m7 k; V# A+ i$ L) [步骤1:使用近邻函数N[}对子图节点进行采样。4 {/ M) e/ y1 y% h1 K5 R% x, G
    Step 2: Aggregate features from neighbor nodes, e.g. mean[}, lstm[}, polling[}
    + J3 V/ v  h- M( H步骤2:聚合相邻节点的特征,例如mean[}、lstm[}、polling[}
    9 K( ?! w8 ~# p6 P# F, ?Step3: Combine aggregated node features. E.g. convolution[}4 Q" D1 q1 ]  y) I
    步骤3:合并聚合的节点特征。例如卷积[}& ~4 S, \5 q: J7 N) \
    Step 4: Nonlinear activation, e.g, relu[}
      k9 q, A( m% W& y- {步骤4:非线性激活,例如relu[}
    ; Q3 |. w3 n6 c1 @# i( l8 F; j2 B% eStep 5: Iterate for each neighbor with a sub-graph
    . Y" w4 y% M+ x: ^步骤5:使用子图迭代每个邻域- Z0 ]) s1 M% k8 V
    Step 6: Normalize
    0 P2 d# ]( _. J步骤6:标准化
    . B1 d0 ^: Q2 ~) s2 ZStep 7: Iterate for each search-depth+ b$ x, s: E! L2 m/ ]
    步骤7:对每个深度搜索进行迭代
    3 `8 C2 P, y8 C) aStep 8: Final node embedding of node v5 @: F/ \, u) c5 @, E+ g
    步骤8:节点v的最终节点嵌入
      }5 F5 l$ j( N# m" ?对于每个要处理的目标节点xv,GraphSAGE算法都会执行以下操作:
    9 v5 g: Y! B5 V, R1 y9 `( Q* f1、通过近邻采样函数N(v)对子图中的节点进行采样。
    : v7 R, N( e& q- K4 A- R! e2、聚合要采样的相邻节点的特征。聚合函数可以是mean()、lstm()或polling()等。+ E4 C+ U* b" Y) t; U
    3、将聚合结果与上一次迭代的输出表示合并起来,并使用Wk进行卷积。# U1 ]) n9 t" J0 l- P$ ^
    4、对卷积结果进行非线性处理。
    2 H, v/ }4 Z1 `2 d5、多次迭代以结束当前第k层的所有相邻节点的处理。5 u% z& ]3 n9 t; ]# |! m7 f6 B
    6、对第k层迭代的结果进行标准化处理。( u3 @% p3 E8 I) `
    7、多次迭代以结束对所有K层采样深度的处理。
    4 f+ w0 U3 \2 }% W+ P4 `$ y; D9 y8、将最终的迭代结果zv嵌入到输入节点xv。
    : j# X3 D) ?. aGNN加速器设计所面临的挑战' \' j& E' _- A+ ~& L! v* `+ T* p
    GNN算法涉及大量的矩阵计算和存储访问操作。在传统的x86架构服务器上运行这种算法的效率是非常低的,表现为速度慢、能耗高等。
    1 z' e  H& {' q% j- ^  n% n新型图形处理器(GPU)的应用可以显著提高GNN的计算速度与能效比。但是,GPU在存储可扩展性方面存在短板,使其无法处理图形中的海量节点。GPU的指令执行方式也会导致计算延迟过大和不确定性;因此,它不适用于需要实时计算图形的场景。2 |7 e. ?2 S% ?/ q# E% t5 Z1 M; T
    上面提到的各种设计挑战,使得业界迫切需要一种能够支持高并发、实时计算,拥有巨大存储容量和带宽,并可扩展到数据中心的GNN加速解决方案。+ c+ n& W5 q7 s
    基于FPGA设计方案的GNN加速器6 I4 {4 q6 W% D$ i1 T/ q  n" _
    Achronix的Speedster®7t系列FPGA产品(以及该系列的第一款器件AC7t1500)是针对数据中心和机器学习工作负载进行了优化的高性能FPGA器件,消除了基于中央处理器(CPU)、GPU和传统FPGA的解决方案中存在的若干性能瓶颈。Speedster7t系列FPGA产品采用了台积电(TSMC)的7nm FinFET工艺,其架构采用了一种革命性的全新二维片上网络(NoC)、独创的机器学习处理器矩阵(MLP),并采用高带宽GDDR6控制器、400G以太网和PCI Express Gen5接口,在确保ASIC级性能的同时,它为用户提供了灵活的硬件可编程性。下图展示了高性能FPGA器件Speedster7t1500的架构。2 H! w+ f2 {& U& R
    - \2 q( K& F: C: ^

    + L% Z% Q' i0 W" O0 h6 R9 @图5:Achronix高性能FPGA器件Speedster AC7t1500的架构3 u; _* w8 g5 k* A  O  J) B
    上述特点使Achronix Speedster7t1500器件成为应对在GNN加速器设计中面临的各种挑战的完美解决方案。' d8 k) k. I. E0 b; [. n& \3 k) R
    表1:GNN设计面临的挑战和Achronix Speedster7t1500 FPGA器件提供的解决方案
    7 Q4 j1 l" \  Z5 ?3 f/ z
    GNN设计所面临的挑战Speedster  AC7t1500器件提供的解决方案
    高速矩阵运算机器学习处理器(MLP)
    高带宽和低延迟存储LRAM+BRAM+Gddr6+ddr4
    高并发和低延迟计算FPGA使用可编程逻辑电路,以确保在硬件层面进行低并发和高并发延迟计算。
    存储扩展基于4×400 Gbps的RDMA确保在数据中心以极低的延迟扩展存储访问。
    算法不断演进FPGA中的可编程逻辑确保算法可以在硬件层面进行升级和重新配置。
    复杂的设计丰富的硬IP减少开发时间、降低复杂性,NoC简化模块之间的互连并改善时序
    GNN加速器顶层架构4 Z6 Y" J2 E8 Y# L6 {
    此GNN加速器是为GraphSAGE算法设计的,但是它的设计也可以应用于其他类似的GNN算法加速。其顶层架构如下图所示。
    9 w6 Z0 C4 a+ j; J6 b# L: O3 a8 z% ^$ G8 G- j- s

    7 g" S. [  k  |8 N: M图6:GNN加速器顶层架构
    $ W3 I( w; t  h. `! kSynthesizable IPs
    2 S$ T& N" k- ~! q可综合的IP
    / f  ^+ i$ S6 P' C* D% d4 p  Y& DGNN Core: Preforms GNN computation) x7 o/ D+ d" h
    GNN内核:执行GNN计算
    5 K' o) f4 L3 \; VRoCE-Lite: Memory scalability with RDMA
    " }) ]; }6 B+ |$ DRoCE-Lite:采用RDMA的存储可扩展性% g, D; ~) E- R9 d
    Harden IPs; g4 `  w  I. i% k" U7 V% q* ^
    硬化IP/ i6 z$ y% a% P. |" X- T# b) n9 I9 F
    NoC: High speed and unified IP connectivity  |( `# j8 v# I+ R$ a/ W0 o& ]1 N! M
    NoC:高速、统一的IP连接# V, t7 O* a+ |0 `* W
    DDR4 Ctrl: Large memory for graph storage9 X6 `. X  Z0 V! C3 Z" Q
    DDR4 Ctrl:用于图形存储的大存储容量5 L% Q; N7 Y; m: e7 f4 s* Z
    GDDR6 Ctrl: High speed memory for computing
    ) o7 o9 N" c, a" T. t2 [GDDR6 Ctrl:用于计算的高速存储4 n% K; ~% J2 v# U- G
    PCIe Gen5×16: High throughout host inteRFace& k/ _, {' c9 n: c9 j2 e
    PCIe Gen5×16:高吞吐量的主机接口
    $ B/ r1 M+ B/ d/ q0 _; hEthernet 400GE: High speed network* H+ }/ _- M  o8 ]5 j/ d
    以太网400GE:高速网络. W# Y% r. i8 `
    该架构由以下模块组成:; q6 e( x! ~0 c; t5 }( M4 f( Q- ^/ n. w
            图中的GNN内核是算法实现的核心部分(详情如下)。
    / t9 X, H& ]# V( q7 Y9 |( w# i& i        RoCE-Lite是RDMA协议的轻量级版本,用于通过高速以太网进行远程存储访问,以支持海量节点的图计算。& Q9 R! D2 Z* V) S6 m2 {# r
            400GE以太网控制器用于承载RoCE-Lite协议。
    + g* v1 n/ G1 B# o8 i: P( Z/ \# j        GDDR6存储器用于存储GNN处理过程中所需的高速访问数据(DDR4作为备用大容量存储器)。该存储器用于存储访问频率相对较低的数据,例如待预处理的图形数据。5 K9 a2 D8 }9 t; S# x
            PCIe Gen5 ×16 接口提供高速主机接口,用于与服务器软件进行数据交互。+ H; W* D% ?% D
    上述所有模块均通过具有高带宽的NoC实现互连。4 d7 ~( d$ ^+ D$ F" F* Q% n) P
    GNN内核微架构( J! g+ c: b8 u. H3 D8 R/ A; T# Z
    在开始讨论GNN内核的微架构之前,有必要先回顾一下GraphSAGE算法。其内层循环的聚合和合并(包括卷积)占据了该算法的大部分计算和存储访问。通过研究,我们得出这两个步骤的特点,具体如下。
    ( g5 a& S$ Y  \5 X, \表2:GNN算法中聚合和合并操作的对比
    ) j. W" H) T& F( v4 K
    步骤聚合操作合并操作
    存储访问方式间接访问,不规则直接访问,规则
    数据重用
    计算模式动态,不规则静态,规则
    计算量
    性能瓶颈存储计算
    可以看出,聚合操作和合并操作在计算和存储访问模式上有着完全不同的需求。聚合操作涉及相邻节点的采样。然而,图形是一种非欧几里得数据类型——它的大小和维度是不确定且无序,矩阵稀疏,节点位置随机。因此,存储访问是不规则的,并且难以重复利用数据。$ _$ |/ y9 o% X
    在合并操作中,输入数据是聚合结果(节点的低维表示)和权重矩阵。它的大小和维度是固定的,具有线性存储位置。因此对存储访问没有挑战,但是矩阵的计算量非常大。
    . q+ ~4 j- A6 [% ^2 }3 U7 L基于上述分析,我们决定在GNN内核加速器设计中选择使用两种不同的硬件结构来分别处理聚合和合并操作(如下图示):7 C: I4 h- G  o' T% a8 T
            聚合器——通过单指令多数据(SIMD)处理器阵列,对图形相邻节点进行采样和聚合。单指令可以预定义为mean()平均值计算,或其他适用的聚合函数;多数据是指单次mean()均值计算中需要多个相邻节点的特征数据作为输入,这些数据来自子图采样器。SIMD处理器阵列通过调度器Agg Scheduler进行负载平衡。子图采样器通过NoC从GDDR6或DDR4读回的邻接矩阵和节点特征数据h0v分别缓存在邻接列表缓冲区(Adjacent List Buffer)和节点特征缓冲区(Node Feature Buffer)。聚合的结果hkN(v)存储在聚合缓冲区(Aggregation Buffer)中。
    $ p0 T' g4 `8 f& e0 Y4 l4 T( _        合并器——通过脉动矩阵PE对聚合结果进行卷积运算。卷积核是Wk权重矩阵。卷积结果由ReLU激活函数进行非线性处理,同时也存储在Partial Sum Buffer中,以用于下一轮迭代。0 o" t. K( r2 Y. h# R5 A
    $ v( L" J" L  ]; F
    0 T9 c8 u+ G0 \, O0 m; {+ b
    图7:GNN内核功能框图
    , S$ @+ H& @" j合并结果经过L2BN标准化处理后,即为最终的节点表示hkv。在一个典型的节点分类预测应用中,节点表示hkv可以通过一个全连接层(FC)来获取节点的分类标签。这个过程是传统的机器学习处理方法之一,在GraphSAGE文献资料中没有体现,这个功能也没有包含在这个架构中。
    , M# D7 b/ k4 H% {3 c2 v: |结论
    2 z! u, s4 N' O$ x本白皮书探讨了GraphSAGE GNN算法的数学原理,并从多个角度分析了GNN加速器设计中的技术挑战。通过分析问题并在架构层面逐一解决,提出了一种架构,利用Achronix Speedster7t AC7t1500 FPGA器件提供的具有竞争性的优势,创建了一种高度可扩展的、能够提供卓越性能的GNN加速解决方案。9 r! ~8 G) w4 r& N9 s) B. `
  • TA的每日心情
    开心
    2022-1-29 15:04
  • 签到天数: 1 天

    [LV.1]初来乍到

    2#
    发表于 2022-2-28 15:33 | 只看该作者
    解释的很到位
  • TA的每日心情
    开心
    2022-1-29 15:04
  • 签到天数: 1 天

    [LV.1]初来乍到

    3#
    发表于 2022-2-28 15:45 | 只看该作者
    详细到位,值得学习
    您需要登录后才可以回帖 登录 | 注册

    本版积分规则

    关闭

    推荐内容上一条 /1 下一条

    EDA365公众号

    关于我们|手机版|EDA365电子论坛网 ( 粤ICP备18020198号-1 )

    GMT+8, 2025-11-22 12:59 , Processed in 0.140625 second(s), 23 queries , Gzip On.

    深圳市墨知创新科技有限公司

    地址:深圳市南山区科技生态园2栋A座805 电话:19926409050

    快速回复 返回顶部 返回列表