核,如55、77请添加图片描述
每次滑动,卷积之后得到的矩阵,会小一圈
55的卷积核就会小两圈
如果不想卷积之后的变小,那就可以自己先填充
可以看到高斯模糊在平滑物体表面的同时,能够更好的保持物体的表面和轮廓
能够检测出竖直的边缘
能偶检测出水平的边缘,两者结合
能偶检测出45°角的边缘
在prewitt算子的基础上,增加了权重的概念,认为上下左右直线方向的距离大于斜线方向的距离,因此他们的权重更大
它通过对邻域中心像素的四方向或者八方向求梯度,再将梯度相加起来,判断中心像素灰度与邻域内其他灰度像素的关系
他将高斯和Laplcian算子相结合,综合考虑了对噪声的抑制和边缘检测,它的抗干扰能力强,边界定位精度高,边缘连续性好,而且能够有效提取对比度弱的边界,在图像处理领域中,得到了广泛的应用
权值共享
卷积神经网络(Convolutional Neural Networks,CNN)
1.池化层(pooling):特征映射层;池化是一种下采样运算;在减少数据运算量的同时,保留有用的信息
2如下一个尺寸为66的图片,对他进行最大池化,池化模板的尺寸为22,步长为2,就是把它按照2*2的小区域进行分块,把每个块合并成一个像素,去每个块中的最大值,作为合并后的像素值
3可以得到图像的
4最大池化就是在缩小图像的同时,对每个图像最亮的像素采样,可以得到图像的主要轮廓,因此池化又进行了一次网络提取
5进一步抽象信息
6提高了泛化性,防止过拟合
# 1 导入库
import tensorflow as tf
print("TensorFlow version: ", tf.__version__)
import numpy as np
import matplotlib.pyplot as plt
# 在使用GPU版本的Tensorflow训练模型时,有时候会遇到显存分配的错误
# InternalError: Bias GEMM launch failed
# 这是在调用GPU运行程序时,GPU的显存空间不足引起的,为了避免这个错误,可以对GPU的使用模式进行设置
gpus = tf.config.experimental.list_physical_devices('GPU')# 这是列出当前系统中的所有GPU,放在列表gpus中
# 使用第一块gpu,所以是gpus[0],把它设置为memory_growth模式,允许内存增长也就是说在程序运行过程中,根据需要为TensoFlow进程分配显存
# 如果系统中有多个GPU,可以使用循环语句把它们都设置成为true模式
tf.config.experimental.set_memory_growth(gpus[0], True)
# 2 加载数据
mnist = tf.keras.datasets.mnist
(train_x,train_y),(test_x,test_y) = mnist.load_data()
# (60000,28,28),(60000,),(10000,28,28),(10000,)
# numpy.ndarray,numpy.ndarray,numpy.ndarray,numpy.ndarray
# 3 数据预处理,这里也可以省去,在之后为进行维度变换
# X_train = train_x.reshape((60000,28*28)) # (60000,784)
# X_test = test_x.reshape((10000,28*28)) # (10000,784)
# 对属性进行归一化,使它的取值在0~1之间,同时转换为tensorflow张量,类型为tf.float32
X_train = train_x.reshape(60000,28,28,1) # (60000,28,28,1)
X_test = test_x.reshape(10000,28,28,1) # (10000,28,28,1)
#X_train = tf.expend_dims(train_x,3)
#X_test = tf.expend_dims(test_x,3)
X_train,X_test = tf.cast(X_train/255.0,tf.float32),tf.cast(X_test/255.0,tf.float32)
y_train,y_test = tf.cast(train_y,tf.int32),tf.cast(test_y,tf.int32)
# 4 建立模型
model = tf.keras.Sequential([
# unit1
tf.keras.layers.Conv2D(16,kernel_size = (3,3),padding="same",activation=tf.nn.relu,input_shape=(28,28,1)),
tf.keras.layers.MaxPool2D(pool_size=(2,2)),
# unit2
tf.keras.layers.Conv2D(32,kernel_size=(3,3),padding="same",activation=tf.nn.relu),
tf.keras.layers.MaxPool2D(pool_size=(2,2)),
# unit3
tf.keras.layers.Flatten(),
# unit4
tf.keras.layers.Dense(128,activation="relu"),
tf.keras.layers.Dense(10,activation="softmax")
])
# 5 配置训练方法
model.compile(optimizer='adam',
loss = 'sparse_categorical_crossentropy',
metrics = ['sparse_categorical_accuracy'])
# 6 训练模型
model.fit(X_train,y_train,batch_size=64,epochs=5,validation_split=0.2)
# 7 评估模型
model.evaluate(X_test,y_test,verbose=2)
# 8 使用模型
np.argmax(model.predict([[X_test[0]]]))# 两层中括号
# 随机抽取4个样本
for i in range(4):
num = np.random.randint(1,10000)
plt.subplot(1,4,i+1)
plt.axis("off")
plt.imshow(test_x[num],cmap='gray')
y_pred = np.argmax(model.predict([[X_test[num]]]))
plt.title("y="+str(test_y[num])+"\ny_pred"+str(y_pred))
plt.show()
输出结果为:
Train on 48000 samples, validate on 12000 samples
Epoch 1/5
2021-12-20 14:04:34.470826: I tensorflow/stream_executor/platform/default/dso_loader.cc:44] Successfully opened dynamic library cublas64_100.dll
2021-12-20 14:04:34.721941: I tensorflow/stream_executor/platform/default/dso_loader.cc:44] Successfully opened dynamic library cudnn64_7.dll
2021-12-20 14:04:35.626785: W tensorflow/stream_executor/cuda/redzone_allocator.cc:312] Internal: Invoking ptxas not supported on Windows
Relying on driver to perform ptx compilation. This message will be only logged once.
48000/48000 [==============================] - 5s 95us/sample - loss: 0.2031 - sparse_categorical_accuracy: 0.9398 - val_loss: 0.0721 - val_sparse_categorical_accuracy: 0.9783
Epoch 2/5
48000/48000 [==============================] - 3s 54us/sample - loss: 0.0616 - sparse_categorical_accuracy: 0.9808 - val_loss: 0.0687 - val_sparse_categorical_accuracy: 0.9797
Epoch 3/5
48000/48000 [==============================] - 3s 54us/sample - loss: 0.0437 - sparse_categorical_accuracy: 0.9868 - val_loss: 0.0480 - val_sparse_categorical_accuracy: 0.9850
Epoch 4/5
48000/48000 [==============================] - 3s 54us/sample - loss: 0.0329 - sparse_categorical_accuracy: 0.9900 - val_loss: 0.0423 - val_sparse_categorical_accuracy: 0.9872
Epoch 5/5
48000/48000 [==============================] - 3s 53us/sample - loss: 0.0248 - sparse_categorical_accuracy: 0.9925 - val_loss: 0.0386 - val_sparse_categorical_accuracy: 0.9892
10000/1 - 1s - loss: 0.0167 - sparse_categorical_accuracy: 0.9886
【参考文献】: 神经网络与深度学习——TensorFlow实践