深度学习-卷积神经网络代码详解

构造卷积神经网络

CNN将形状为(高度,宽度,色彩通道数)的张量作为输入,忽略批次的大小。
在本实例中,我们将配置CNN处理(32,32,3)的输入,通过参数input_shape传递给第一层来实现这个目的。

model = models.Sequential()

Sequential()方法是一个容器,描述了神经网络的网络结构,在Sequential()的输入参数中描述从输入层到输出层的网络结构。

第一层卷积层:32个3*3的卷积核,使用Relu作为激活函数

model.add(layers.Conv2D(32, (3, 3), activation='relu', input_shape=(32, 32, 3)))

第2层是2*2的最大池化层

 model.add(layers.MaxPooling2D((2, 2)))

第3层为卷积层 64个3*3的卷积核 RELU作为激活函数

model.add(layers.Conv2D(64, (3, 3), activation='relu'))

第4层为2*2的最大池化层

model.add(layers.MaxPooling2D(2, 2))

增加Dense层,Dense是全连接层, Flatten()层作为将2高维展平为1维,常用在卷积层到全连接层的过渡。所以在加全连接层之前要加Flatten层,将输入的图像展平到1维。

model.add(layers.Flatten())

再加入两个全连接层,因为本例是一个10分类的问题,所以最后一层的全连接层输出为10。

model.add(layers.Dense(64, activation='relu'))
model.add(layers.Dense(10))

编译并训练模型

model.compile()方法用于配置训练方法时,告知训练时用的优化器,损失函数和准确率评测标准。

model.compile(optimizer='adam',  # 优化器为adam优化器
              loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True),  # 损失函数为交叉熵,
              # from_logits,True表示是原始数据,系统帮忙做SoftMax再进行计算
              metrics=['accuracy']  # metrics标注网络评价指标真实值和预测值都是数值
              )

训练模型,并将各个轮次的数据用history接收。


history = model.fit(train_images, train_labels, epochs=10,
                    # validation_data形式为元组,是指定的验证集
                    validation_data=(test_images, test_labels))

评估模型

将训练集和测试集的精确度和训练轮次的对照关系折线图绘制出来。

plt.plot(history.history['accuracy'], label='accuracy')
plt.plot(history.history['val_accuracy'], label='val_accuracy')
plt.xlabel('Epochs')
plt.ylabel('Accuracy')
plt.ylim([0.5, 1])
plt.legend(loc='lower right')
plt.show()

详细的代码和效果参考博文:cnn实现图像分类

你可能感兴趣的:(深度学习,TensorFlow,神经网络,深度学习,tensorflow)