深入浅出图神经网络|GNN原理解析☄学习笔记图信号处理与图卷积神经网络

Posted 白鳯

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了深入浅出图神经网络|GNN原理解析☄学习笔记图信号处理与图卷积神经网络相关的知识,希望对你有一定的参考价值。

深入浅出图神经网络|GNN原理解析☄学习笔记(五)图信号处理与图卷积神经网络


图信号处理Graph Signal Processing, GSP)是 离散信号处理Discrete Signal ProcessingDSP)理论在图信号领域的应用,其通过对傅里叶变换、滤波等信号处理基本概念的迁移,来研究对图信号的压缩、变换、重构等信号处理的基础任务。

图信号处理与图卷积模型密不可分:一方面,理解图信号处理对于了解图卷积模型的定义和演变有十分重要的帮助;一方面,图信号处理也为卷积模型的理论研究提供了十分实用的工具。


矩阵乘法的三种形式

设两个矩阵 A ∈ R K × M A∈R^{K×M} ARK×M B ∈ R M × P B∈R^{M×P} BRM×P,对于 C = A B C=AB C=AB,有如下三种计算方式:

  • 内积视角:将A视作一个行向量矩阵,将B视作一个列向量矩阵,则:
    C i j = A i , ; B : , j C_{ij}=A_{i,;}B_{:,j} Cij=Ai,;B:,j

  • 行向量视角:将B视作一个行向量矩阵,将A视作系数矩阵,则:
    C i , : = ∑ m M A i m B m , : C_{i,:}=\\sum_m^MA_{im}B_{m,:} Ci,:=mMAimBm,:

  • 列向量视角:将A视作一个列向量矩阵,将B视作系数矩阵,则:
    C : , j = ∑ m M B m j A : , m C_{:,j}=\\sum_m^MB_{mj}A_{:,m} C:,j=mMBmjA:,m


图信号与图的拉普拉斯矩阵

拉普拉斯矩阵Laplacian Matrix)是用来研究图的结构性质的核心对象,拉普拉斯矩阵的定义如下: L = D − A L=D-A L=DA,D是一个对角矩阵, D i i = ∑ j A i j D_{ii}=\\sum_jA_{ij} Dii=jAij表示的是节点 v i v_i vi的度。拉普拉斯矩阵的元素级别定义如下:
L i j = { d e g ( v i ) i f : i = j − 1 i f : e i j ∈ E 0 o t h e r w i s e L_{ij}=\\begin{cases} deg(v_i) \\quad if: i = j\\\\ -1 \\quad if:e_{ij}∈E\\\\ 0 \\quad otherwise \\end{cases} Lij=deg(vi)if:i=j1if:eijE0otherwise
拉普拉斯矩阵的正则化形式(symmetric normalized laplacian) L s y m = D − 1 / 2 L D − 1 / 2 L_{sym}=D^{-1/2}LD^{-1/2} Lsym=D1/2LD1/2,元素级别定义如下:
L i j = { 1 i f : i = j − 1 d e g ( v i ) d e g ( v j ) i f : e i j ∈ E 0 o t h e r w i s e L_{ij}=\\begin{cases} 1 \\quad if: i = j\\\\ \\frac{-1}{\\sqrt{deg(v_i)deg(v_j)}} \\quad if:e_{ij}∈E\\\\ 0 \\quad otherwise \\end{cases} Lij=1if:i=jdeg(vi)deg(vj) 1if:eijE0otherwise
拉普拉斯矩阵的定义来源于拉普拉斯算子,拉普拉斯算子是n维欧式空间中的一个二阶微分算子: Δ f = ∑ i = 1 n δ 2 f δ x i 2 \\Delta f=\\sum_{i=1}^{n}\\frac{δ^2f}{δx_i^2} Δf=i=1nδxi2δ2f

。如果将该算子的作用域退化到离散的二维图像空间,就成了我们非常熟悉的边缘检测算子,其作用原理如下:
Δ f ( x , y ) = δ 2 f ( x , y ) δ x 2 + δ 2 f ( x , y ) δ y 2 = [ f ( x + 1 , y ) + f ( x − 1 , y ) + f ( x , y + 1 ) + f ( x , y − 1 ) ] − 4 f ( x , y ) \\Delta f(x,y)=\\frac{δ^2f(x,y)}{δx^2}+\\frac{δ^2f(x,y)}{δy^2}\\\\ =[f(x+1,y)+f(x-1,y)+f(x,y+1)+f(x,y-1)]-4f(x,y) Δf(x,y)=δx2δ2f(x,y)+δy2δ2f(x,y)=[f(x+1,y)+f(x1,y)+f(x,以上是关于深入浅出图神经网络|GNN原理解析☄学习笔记图信号处理与图卷积神经网络的主要内容,如果未能解决你的问题,请参考以下文章

深入浅出图神经网络|GNN原理解析☄学习笔记卷积神经网络

《深入浅出图神经网络》GNN原理解析☄学习笔记卷积神经网络

深入浅出图神经网络|GNN原理解析☄学习笔记图的概述

《深入浅出图神经网络》GNN原理解析☄学习笔记图的概述

深入浅出图神经网络|GNN原理解析☄学习笔记表示学习

深入浅出图神经网络|GNN原理解析☄学习笔记表示学习