深度学习4:卷积神经网kaggle猫狗分类(3)

代码分析

上接分类2.

from keras import optimizers

model.compile(loss='binary_crossentropy',
              optimizer=optimizers.RMSprop(lr=1e-4),
              metrics=['acc'])

要用sigmoid做二分类的问题,还是老生常谈的rmsprop优化器,二元交叉熵作为损失函数。
同样,我们的下一步就是来做数据的处理。

from keras.preprocessing.image import ImageDataGenerator

train_datagen = ImageDataGenerator(rescale=1./255)
test_datagen = ImageDataGenerator(rescale=1./255)

train_generator = train_datagen.flow_from_directory(
        train_dir,
        target_size=(150, 150),
        batch_size=20,
        class_mode='binary')

validation_generator = test_datagen.flow_from_directory(
        validation_dir,
        target_size=(150, 150),
        batch_size=20,
        class_mode='binary')

这一段代码的主要作用就是把图片处理为适合学习的张量模式,keras自带的模块有一个generator类可以帮助我们方便的完成这个步骤。首先,导入这个模块之后将所有图像乘以1/255,是为了将像素值固定在0到1的区间,然后很清楚的看到了将训练集和验证集调整为150*150的尺寸,批量为20,标签从上面看就应该使用binary。
generator的含义是生成器,这个生成的对象可以用for in语句来一起使用。
接下来要做的工作就是利用生成器的加工后数据完成模型的拟合了。

history = model.fit_generator(
      train_generator,
      steps_per_epoch=100,
      epochs=30,
      validation_data=validation_generator,
      validation_steps=50)

其中 steps_per_epoch=100意思就是训练过程中2000个数据,批量大小为20,就需要100次,下面的50也是同理。
最后一步就是直观的把图画出来。

import matplotlib.pyplot as plt

acc = history.history['acc']
val_acc = history.history['val_acc']
loss = history.history['loss']
val_loss = history.history['val_loss']

epochs = range(len(acc))

plt.plot(epochs, acc, 'bo', label='Training acc')
plt.plot(epochs, val_acc, 'b', label='Validation acc')
plt.title('Training and validation accuracy')
plt.legend()

plt.figure()

plt.plot(epochs, loss, 'bo', label='Training loss')
plt.plot(epochs, val_loss, 'b', label='Validation loss')
plt.title('Training and validation loss')
plt.legend()

plt.show()

深度学习4:卷积神经网kaggle猫狗分类(3)_第1张图片
深度学习4:卷积神经网kaggle猫狗分类(3)_第2张图片
可以看到训练的结果不尽如人意,精度也就70左右,还面领着过拟合的问题。余下的后面再分析。

你可能感兴趣的:(深度学习)