keras_CNN

本文主要讲CNN(Convolutional Neural Networks)卷积神经网络在 keras 上的代码实现。 用到的数据集还是MNIST。不同的是这次用到的层比较多,导入的模块也相应增加了一些。在数据预处理部分也与之前有所不同


Demo.py

from keras.datasets import mnist
from keras.utils import np_utils
from keras.models import Sequential
from keras.layers import Dense, Activation, Conv2D, MaxPooling2D, Flatten
from keras.optimizers import Adam

# 加载数据集
#Keras 自身就有 MNIST 这个数据包,再分成训练集和测试集。x 是一张张图片,y 是每张图片对应的标签,即它是哪个数字。
(X_train, y_train), (X_test, y_test) = mnist.load_data()

# 数据预处理
X_train = X_train.reshape(-1, 1, 28, 28)
X_test = X_test.reshape(-1, 1, 28, 28)
# 将label变为向量
# 对于 y,要用到 Keras 改造的 numpy 的一个函数 np_utils.to_categorical,把 y 变成了 one-hot 的形式,即之前 y 是一个数值, 在 0-9 之间,现在是一个大小为 10 的向量,它属于哪个数字,就在哪个位置为 1,其他位置都是 0。
y_train = np_utils.to_categorical(y_train, 10)
y_test = np_utils.to_categorical(y_test, 10)


# 构建神经网络
model = Sequential()
#添加第一个卷积层,滤波器数量为32,大小是5*5,Padding方法是same即不改变数据的长度和宽带。 
#因为是第一层所以需要说明输入数据的 shape ,激励选择 relu 函数
# 卷积层一
model.add(Conv2D(32, kernel_size = (5, 5), strides = (1, 1), padding = 'same', activation = 'relu', input_shape = (1, 28, 28)))
#model.add(Convolution2D(
#    nb_filter=32,
#    nb_row=5,
#    nb_col=5,
#    border_mode='same',     # Padding method
#    dim_ordering='th',    # 采用 theano 的 input 格式  
#    input_shape=(1,         # channels
#                 28, 28,)    # height & width
#))
#model.add(Activation('relu'))
# 池化层一 pooling(池化,下采样),分辨率长宽各降低一半,输出数据shape为(32,14,14)
model.add(MaxPooling2D(pool_size = (2, 2), strides = (1, 1), padding = 'same'))
#model.add(MaxPooling2D(
#   pool_size=(2, 2),
#    strides=(2, 2),
#    border_mode='same',    # Padding method
#))
# 卷积层二
model.add(Conv2D(64, kernel_size = (5, 5), strides = (1, 1), padding = 'same', activation = 'relu'))
# 池化层二
model.add(MaxPooling2D(pool_size = (2, 2), strides = (1, 1), padding = 'same'))
#model.add(Convolution2D(64, 5, 5, border_mode='same'))
#model.add(Activation('relu'))
#model.add(MaxPooling2D(pool_size=(2, 2), border_mode='same'))

# 全连接层一,经过以上处理之后数据shape为(64,7,7),需要将数据抹平成一维,再添加全连接层1
model.add(Flatten())
model.add(Dense(1024))
model.add(Activation('relu'))

# 全连接层二,即输出层
model.add(Dense(10))
model.add(Activation('softmax'))

# 选择并定义优化求解方法
adam = Adam(lr = 1e-4)

# 选择损失函数、求解方法、度量方法,设置adam优化方法,loss函数, metrics方法来观察输出结果
model.compile(optimizer = adam, loss = 'categorical_crossentropy', metrics = ['accuracy'])

# 训练模型
model.fit(X_train, y_train, epochs = 2, batch_size = 32)

# 评估模型
loss, accuracy = model.evaluate(X_test, y_test)

print ''
print 'loss: ', loss
print 'accuracy: ', accuracy

结果:

Using TensorFlow backend.
Epoch 1/2
60000/60000 [==============================] - 55s - loss: 0.4141 - acc: 0.9234
Epoch 2/2
60000/60000 [==============================] - 56s - loss: 0.0743 - acc: 0.9770
 9920/10000 [============================>.] - ETA: 0s
loss:  0.103529265788
accuracy:  0.9711

你可能感兴趣的:(keras_CNN)