复数值神经网络matlab,【原创】复数神经网络的反向传播算法,及pytorch实现方法...

复函数的可导性

复变函数按照是否可导,分为全纯函数holomothic和nonholomophic,判断条件为Cauchy-Riemann方程。

对于不可导的nonholomophic函数:

Wirtinger算子

采用Wirtinger算子来计算反向传播。

Wirtinger算子的思路是,将任何复变函数f,看做f(z,z*),求导数就是对z和共轭z*分别求导:

其中:

z=x + jy。

而全纯函数f(z),当且仅当df/dz*=0。

参考1,2,3

Pytorch实现

损失函数梯度

损失函数J的梯度为:

且由于J为实数,因此:

math?formula=%5Cbegin%7Balign%7D%5Cnabla%20J%20%26%3D%202%5Cleft(%5Cfrac%7B%5Cpartial%20J%7D%7B%5Cpartial%20y%7D%20%5Cfrac%7B%5Cpartial%20y%7D%7B%5Cpartial%20w%7D%20%2B%20%5Cfrac%7B%5Cpartial%20J%7D%7B%5Cpartial%20y%5E*%7D%20%5Cfrac%7B%5Cpartial%20y%5E*%7D%7B%5Cpartial%20w%7D%20%5Cright)%5E*%20%5C%5C%26%3D2%5Cleft(%5Cfrac%7B%5Cpartial%20J%7D%7B%5Cpartial%20y%7D%20%5Cfrac%7B%5Cpartial%20y%7D%7B%5Cpartial%20w%7D%20%2B%20%5Cleft%5B%5Cfrac%7B%5Cpartial%20J%7D%7B%5Cpartial%20y%7D%5Cfrac%7B%5Cpartial%20y%7D%7B%5Cpartial%20w%5E*%7D%20%5Cright%5D%5E*%5Cright)%5E*%5C%5C%26%3D%5Cnabla%20J%5Cleft(%5Cfrac%7B%5Cpartial%20y%7D%7B%5Cpartial%20w%7D%5Cright)%5E*%2B%5Cleft(%5Cnabla%20J%5Cright)%5E*%5Cfrac%7B%5Cpartial%20y%7D%7B%5Cpartial%20w%5E*%7D%5Cend%7Balign%7D%5C%5C

综上,算法流程如下:

1) 全纯函数y=f(w):

由于dy/dw*=0,由推导可知,梯度与实数域结果一样,无需额外实现

2)非全纯函数y=f(w,w*):

a, 求得g1 = dy/dw,g2 = dy/dw*。

b, 拿到上层backward回来的梯度,也就是grad_output

c, 求得本节点的梯度 += grad_output.g1* + grad_output*.g2

具体实现

pytorch自动求导机制可以通过继承torch.autograd.Function来扩展求导算法。由上可知,只需要扩展非全纯函数即可。

复数的矩阵表示形式为z[..., 2],最后维度的2个值分别是实部和虚部。

例如函数 y=z.z*的实现如下:

你可能感兴趣的:(复数值神经网络matlab)