LeNet粗糙的大概样子

这里只写大概意思。帮助大家了解个大概的全貌。


主程序里,上面都是构造数据流图。然后sess.run时激活图。所以先从run开始看就行。然后输入假的X图像数据,通过inference输出假的Y结果。

 y = LeNet5_infernece.inference(x,False,regularizer) 



然后inference里,根据LeNet5结构,卷积C1--池化S2--卷积C3--池化S4--卷积C5--全连接F6.

大概里面内容就是(你能找到规律的):

C1:

 weight1:【5,5,1,32】

biase1:【32】

conv1=tf.nn.conv2d(input_tensor,weight1,stride...)

relu1=tf.nn.relu(tf.nn.bias_add(conv1,biase1))

C2:

pool2=tf.nn.max_pool(relu1,...)

C3:

weight3=[5,5,32,64]

biase3=[64]

conv3=..(con1,...)

relu3=(..conv3,biase3)

C4:

pool..

C5:

weight5=[node前面的,fc_size全连接数]

biase5=[fc_size]

...

C6:

weight=[fc_size,label数量]

biase=[label]

你可能感兴趣的:(LeNet粗糙的大概样子)