背景介绍:MNIST数据集识别黑白的手写数字图片,不适合彩色模型的RGB三通道图片。本次实战对CIFAR10数据集进行分析与学习。
有不懂的地方可以看代码下面的解释与讲解
目录
1.数据集的下载:
2.预处理:
3.主函数:
(1)计算损失:
(2)计算准确率:
(x,y), (x_test, y_test) = datasets.cifar10.load_data() # 加载数据集
y = tf.squeeze(y, axis=1) # 删除不必要的维度
y_test = tf.squeeze(y_test, axis=1) # 删除不必要的维度
print(x.shape, y.shape, x_test.shape, y_test.shape)
train_db = tf.data.Dataset.from_tensor_slices((x,y)) # 构建训练集
# 随机打散,预处理,批量化
train_db = train_db.shuffle(1000).map(preprocess).batch(512)
test_db = tf.data.Dataset.from_tensor_slices((x_test,y_test)) #构建测试集
# 随机打散,预处理,批量化
test_db = test_db.map(preprocess).batch(512)
# 采样一个样本
sample = next(iter(train_db))
print('sample:', sample[0].shape, sample[1].shape,
tf.reduce_min(sample[0]), tf.reduce_max(sample[0]))
直接在线下载cifar10数据集,但注意cifar10数据集较大,下载较为缓慢。
删除y的列维度,仅留下一个行维度表明是什么类别的物体。后面用one_hot编码进行扩展。
对训练集和测试集进行同样的处理:1.构建数据集对象,2.进行打乱处理,主要防止机器固定记忆,可有可无,3.对其进行预处理,预处理下面有介绍,4.分批处理
def preprocess(x, y):
# 将数据映射到-1~1
x = 2*tf.cast(x, dtype=tf.float32) / 255. - 1
y = tf.cast(y, dtype=tf.int32) # 类型转换
return x,y
将传入的x,y进行预处理,x数据化为-1~1,y进行类型转化为int型
# [b, 32, 32, 3] => [b, 1, 1, 512]
model = resnet18() # ResNet18网络
model.build(input_shape=(None, 32, 32, 3))
model.summary() # 统计网络参数
optimizer = optimizers.Adam(lr=1e-4) # 构建优化器
for epoch in range(100): # 训练epoch
for step, (x,y) in enumerate(train_db):
with tf.GradientTape() as tape:
# [b, 32, 32, 3] => [b, 10],前向传播
logits = model(x)
#print("6666")
# [b] => [b, 10],one-hot编码
y_onehot = tf.one_hot(y, depth=10)
# 计算交叉熵
loss = tf.losses.categorical_crossentropy(y_onehot, logits, from_logits=True)
loss = tf.reduce_mean(loss)
# 计算梯度信息
grads = tape.gradient(loss, model.trainable_variables)
# 更新网络参数
optimizer.apply_gradients(zip(grads, model.trainable_variables))
if step %50 == 0:
print(epoch, step, 'loss:', float(loss))
本次使用的是ResNet18网络,具体网络构建详情请参照上一篇文章
机器学习-卷积神经网络之深度残差网络(三)
build()函数规定了输入的格式,即32*32像素,三通道的图片。
一共训练一百轮,每轮都需要遍历训练集中的所有数据。logits表明经过全连接层最后的10个输出。对于标签y进行one_hot编码。其中from_logits=True表明会自动调用Softmax激活函数,实际输出logits优化为概率,优化过后与编码后的y进行交叉熵的计算。
简单介绍一下交叉熵:交叉熵是损失函数的一种,主要应用于机器学习中的分类问题中,当预测的概率与实际标签相差越小得到的值就越小。
下面是对梯度进行自动更新。
total_num = 0
total_correct = 0
for x,y in test_db:
logits = model(x)
prob = tf.nn.softmax(logits, axis=1)
pred = tf.argmax(prob, axis=1)
pred = tf.cast(pred, dtype=tf.int32)
correct = tf.cast(tf.equal(pred, y), dtype=tf.int32)
correct = tf.reduce_sum(correct)
total_num += x.shape[0]
total_correct += int(correct)
acc = total_correct / total_num
print(epoch, 'acc:', acc)
准确率的计算在训练集更新完参数之后在测试集计算。
将输出logits用Softmax函数激活,优化为概率。找出这一行中概率最大的那个列就是预测的物体。预测值与实际标签相比较,如果相等张量中就会有一个true,cast是强制类型转换,将布尔型转换为int型。张量中每有一个true,就变换为一个1,false变换为0。利用reduce_sum获取判断正确的个数,由total_correct汇总,最终计算出准确率。