CNN将形状为(高度,宽度,色彩通道数)的张量作为输入,忽略批次的大小。
在本实例中,我们将配置CNN处理(32,32,3)的输入,通过参数input_shape传递给第一层来实现这个目的。
model = models.Sequential()
Sequential()方法是一个容器,描述了神经网络的网络结构,在Sequential()的输入参数中描述从输入层到输出层的网络结构。
第一层卷积层:32个3*3的卷积核,使用Relu作为激活函数
model.add(layers.Conv2D(32, (3, 3), activation='relu', input_shape=(32, 32, 3)))
第2层是2*2的最大池化层
model.add(layers.MaxPooling2D((2, 2)))
第3层为卷积层 64个3*3的卷积核 RELU作为激活函数
model.add(layers.Conv2D(64, (3, 3), activation='relu'))
第4层为2*2的最大池化层
model.add(layers.MaxPooling2D(2, 2))
增加Dense层,Dense是全连接层, Flatten()层作为将2高维展平为1维,常用在卷积层到全连接层的过渡。所以在加全连接层之前要加Flatten层,将输入的图像展平到1维。
model.add(layers.Flatten())
再加入两个全连接层,因为本例是一个10分类的问题,所以最后一层的全连接层输出为10。
model.add(layers.Dense(64, activation='relu'))
model.add(layers.Dense(10))
model.compile()方法用于配置训练方法时,告知训练时用的优化器,损失函数和准确率评测标准。
model.compile(optimizer='adam', # 优化器为adam优化器
loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True), # 损失函数为交叉熵,
# from_logits,True表示是原始数据,系统帮忙做SoftMax再进行计算
metrics=['accuracy'] # metrics标注网络评价指标真实值和预测值都是数值
)
训练模型,并将各个轮次的数据用history接收。
history = model.fit(train_images, train_labels, epochs=10,
# validation_data形式为元组,是指定的验证集
validation_data=(test_images, test_labels))
将训练集和测试集的精确度和训练轮次的对照关系折线图绘制出来。
plt.plot(history.history['accuracy'], label='accuracy')
plt.plot(history.history['val_accuracy'], label='val_accuracy')
plt.xlabel('Epochs')
plt.ylabel('Accuracy')
plt.ylim([0.5, 1])
plt.legend(loc='lower right')
plt.show()
详细的代码和效果参考博文:cnn实现图像分类