神经网络的分类准确率到底是一个什么物理量

 

r1

r2

   

<1

<1

吸引子

c

>1

>1

排斥子

p

>1

<1

鞍点

a

<1

>1

反鞍点

fa

用p,a做训练集,用来分类c

神经网络的分类准确率到底是一个什么物理量_第1张图片

可能有两种可能,一种是

 d2(p||a)-4-4-2-(2*k),k∈{0,1}  (1,0)

向网络的左边输入排斥子,右边输入鞍点,同时让吸引子在1,0位收敛。得到的数据

0.5

0.5

c

c

 

a

p

0

1

0.62497

意思是当收敛标准δ等于1e-6时,训练集(p||a)对(1,0)位c的判断准确率为62.497%

 

第二种可能是

d2(p||a)-4-4-2-(2*k),k∈{0,1}  (0,1)

向网络的左边输入排斥子,右边输入鞍点,同时让吸引子在0,1位收敛。得到的数据

0.5

0.5

c

c

 

A

p

1

0

0.37376

意思是当收敛标准δ等于1e-6时,训练集(p||a)对(0,1)位c的判断准确率为37.376%.

具体数据和实验过程在《BP神经网络分类2*2对角矩阵准确率数据汇总》

 

假设一个物理环境,这个环境由排斥子,鞍点和一个网络组成。在这个环境中只有两个二维的位置(1,0)和(0,1)。现在假设吸引子是一个微观粒子进入了这个只有两种可能的二维空间,由上面的两个实验表明这个粒子c在二维空间中

d2(p||a)-4-4-2-(2*k),k∈{0,1}

将要发生分裂,在(1,0)位置存在的概率是62.49%,在(0,1)位置存在的概率是37.37%,二者累加和等于1,并且这两种状态同时存在。

也就是神经网络的分类准确率表达的是一个对象在某个环境中发生分裂的概率。

由这个实验很容易理解为什么宏观的对象比如人不能像微观粒子那样穿墙,因为人作为训练集的复杂度足够高使得网络的分类准确率高度的近似1,因此在另一个位置存在的概率接近0。而微观粒子的复杂度有限,训练集组成的网络的分辨准确率不是足够高,因此微观粒子可能同时存在在两个位置或者多个位置。

假设是由于长程力对微观粒子的影响有限,使得微观粒子的网络只能由短程力构成,就使得微观粒子的训练集只能由少数的几种微观粒子构成,而无法引入宏观世界的复杂性,导致网络分类能力有限,并由分类不准确导致量子化现象。

你可能感兴趣的:(用分类实现衰变,分裂概率,裂变概率,量子态叠加,分类准确率,神经网络)