【原创】复数神经网络的反向传播算法,及pytorch实现方法

复函数的可导性

复变函数按照是否可导,分为全纯函数holomothic和nonholomophic,判断条件为Cauchy-Riemann方程。

对于不可导的nonholomophic函数:

Wirtinger算子

采用Wirtinger算子来计算反向传播。

Wirtinger算子的思路是,将任何复变函数f,看做f(z,z*),求导数就是对z和共轭z*分别求导:
                    
其中:

z=x + jy。

而全纯函数f(z),当且仅当df/dz*=0。

参考1,2,3


Pytorch实现

损失函数梯度

损失函数J的梯度为:

                    

且由于J为实数,因此:

                        \begin{align}\nabla J &= 2\left(\frac{\partial J}{\partial y} \frac{\partial y}{\partial w} + \frac{\partial J}{\partial y^*} \frac{\partial y^*}{\partial w} \right)^* \\&=2\left(\frac{\partial J}{\partial y} \frac{\partial y}{\partial w} + \left[\frac{\partial J}{\partial y}\frac{\partial y}{\partial w^*} \right]^*\right)^*\\&=\nabla J\left(\frac{\partial y}{\partial w}\right)^*+\left(\nabla J\right)^*\frac{\partial y}{\partial w^*}\end{align}\\

综上,算法流程如下:

1) 全纯函数y=f(w):
        由于dy/dw*=0,由推导可知,梯度与实数域结果一样,无需额外实现
2)非全纯函数y=f(w,w*):
        a, 求得g1 = dy/dw,g2 = dy/dw*。
        b, 拿到上层backward回来的梯度,也就是grad_output
        c, 求得本节点的梯度 += grad_output.g1* + grad_output*.g2

具体实现

pytorch自动求导机制可以通过继承torch.autograd.Function来扩展求导算法。由上可知,只需要扩展非全纯函数即可。

复数的矩阵表示形式为z[..., 2],最后维度的2个值分别是实部和虚部。

例如函数 y=z.z*的实现如下:

你可能感兴趣的:(【原创】复数神经网络的反向传播算法,及pytorch实现方法)