$$ \begin{align}x^{(t+1)}=Ug_{\theta}U^Tx^{(t)}\end{align} $$
对角阵$g_{\theta}$可以用特征值矩阵$\Lambda$来参数化:
$$ g_{\theta}=g(\Lambda)=\begin{pmatrix}g(\lambda_1)& 0& 0 \\0 & g(\lambda_2)& 0 \\ \vdots & \ddots & \vdots \\0 & 0 & g(\lambda_n)\end{pmatrix} $$
于是(1) 可以改写为:
$$ \begin{align}x^{(t+1)}&=Ug_{\theta}U^Tx^{(t)}\\&=\sum_{i=1}^ng(\lambda_i)u_iu_i^Tx^{(t)}\end{align} $$
把$x^{(t)}$写成$u_i$基下的形式:$x^{(t)}=\sum_{j=1}^k\alpha_ju_j$, 带入(3):
$$ \begin{align}x^{(t+1)}&=(\sum_{i=1}^ng(\lambda_i)u_iu_i^T)(\sum_{j=1}^k\alpha_ju_j)\\&=\sum_{i=1}^n\alpha_ig(\lambda_i)u_i\end{align} $$
对比$x^{(t)}$和$x^{(t+1)}$可以看出:不同图卷积(滤波器)的差别就在频率响应函数$g(\lambda_i)$上,它调整了不同频率上信号的强度。 如果$g(\lambda)$ 在$\lambda$小的时候大,那么滤波器的作用就是增加低频信号的强度,这样的滤波器会使得信号越来越平滑,也就是低通滤波器,比如下面要分析的ChebyNet、GCN和GraphHeat.

Eignvalues of a random graph’s normalized Graph-Laplacian
$$ \begin{align}x^{(t+1)}=U(\sum_{k=0}^{K-1}\theta_kT_k(\hat{\Lambda}))U^Tx\end{align} $$
比如$K=3 \quad \theta_i=(-1)^{i+1}$ 时:
$$ \begin{aligned}g_{\theta}&=\theta_0I+\theta_1\hat{\Lambda}+\theta_2(2\hat{\Lambda}^2-I)\\&=\hat{\Lambda}-2\hat{\Lambda}\\& =(\frac{2\Lambda}{\lambda_{max}}-I)-2(\frac{2\Lambda}{\lambda_{max}}-I)^2\\&= (\frac{2\Lambda}{\lambda_{max}}-I)-2(\frac{2\Lambda-2\lambda_{max}I}{\lambda_{max}})^2\end{aligned} $$