Binder, Alexander, et al. “Layer-wise relevance propagation for neural networks with local renormalization layers.” International Conference on Artificial Neural Networks. Springer, Cham, 2016.
本文是探究的是图片上的像素与最终结果的相关性。创新点是把 Layer-wise Relevance Propagation (LRP) 扩展到了非线性映射上。
在神经网络中,每一层的输出 x j x_j xj都是输入 x i x_i xi和激活函数 g g g的结果(作者写着主要是约定一下各个符号的意思):
x j = g ( ∑ I w i j x i + b ) x_j=g(\sum_{I}w_{ij}x_i+b) xj=g(I∑wijxi+b)
给定一个图像 x x x和分类器 f f f, x x x上每一个像素 p p p都有一个 pixel-wise relevance score R p ( 1 ) R^{(1)}_p Rp(1)使得:
f ( x ) = ∑ p R p ( 1 ) f(x)=\sum_pR^{(1)}_p f(x)=p∑Rp(1)
如果我们已知 l + 1 l+1 l+1层的相关性 R j ( l + 1 ) R^{(l+1)}_j Rj(l+1),我们先它分解成信息 R i ← j ( l , l + 1 ) R^{(l,l+1)}_{i\leftarrow j} Ri←j(l,l+1):
R j ( l + 1 ) = ∑ i R i ← j ( l , l + 1 ) R^{(l+1)}_j=\sum_iR^{(l,l+1)}_{i\leftarrow j} Rj(l+1)=i∑Ri←j(l,l+1)
那么对于 l l l层的想关系我们有:
R i ( l ) = ∑ j R i ← j ( l , l + 1 ) R^{(l)}_i=\sum_jR^{(l,l+1)}_{i\leftarrow j} Ri(l)=j∑Ri←j(l,l+1)
上面两个式子定义了相关性的传播过程。在 LRP 中, R i ← j ( l , l + 1 ) R^{(l,l+1)}_{i\leftarrow j} Ri←j(l,l+1)的计算工程有如下的结构:
R i ← j ( l , l + 1 ) = v i j R j l + 1 w i t h ∑ i v i j = 1 R^{(l,l+1)}_{i\leftarrow j}=v_{ij}R^{l+1}_j~with~\sum_iv_{ij}=1 Ri←j(l,l+1)=vijRjl+1 with i∑vij=1
具体有两种规则,先定义 z i j = ( w i j x i ) p z_{ij}=(w_{ij}x_i)^p zij=(wijxi)p, z j = ∑ k z k j z_j=\sum_kz_{kj} zj=∑kzkj, ϵ \epsilon ϵ-rule 定义:
R i ← j ( l , l + 1 ) = z i j z j + ϵ ⋅ s i g n ( z j ) R j l + 1 R^{(l,l+1)}_{i\leftarrow j}=\frac{z_{ij}}{z_j+\epsilon\cdot sign(z_j)}R^{l+1}_j Ri←j(l,l+1)=zj+ϵ⋅sign(zj)zijRjl+1
ϵ \epsilon ϵ是个很小的数防止分母为0。 β \beta β-rule 定义为:
R i ← j ( l , l + 1 ) = ( ( 1 + β ) z i j + z j + + β z i j − z j − ) R j l + 1 R^{(l,l+1)}_{i\leftarrow j}=((1+\beta)\frac{z^+_{ij}}{z^+_{j}}+\beta\frac{z^-_{ij}}{z^-_{j}})R^{l+1}_j Ri←j(l,l+1)=((1+β)zj+zij++βzj−zij−)Rjl+1
正负号表示 z z z取正负时的对应值, β \beta β越大(e.g., β = 1 \beta=1 β=1)越是反推回去的热力图越尖锐
上面两种传播方式都可以看作是激活函数的 Taylor expansion,感觉这的推导不是很有说服力,把 normalization 泰勒展开,然后重新计算不同节点的贡献。
相当于把结果反向传播回像素,定义好规则来进行反向传播。