import os
import tensorflow as tf
from tensorflow import keras
from tensorflow.keras import layers,optimizers,datasets
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
(x,y),(x_val,y_val) = datasets.mnist.load_data()
x = tf.convert_to_tensor(x,dtype = tf.float32)/255.
y = tf.convert_to_tensor(y,dtype = tf.int32)
y = tf.one_hot(y,depth = 10)
print(x.shape,y.shape)
train_dataset = tf.data.Dataset.from_tensor_slices((x,y))
train_dataset = train_dataset.batch(200)
model = keras.Sequential([
layers.Dense(512,activation = 'relu'),
layers.Dense(256,activation = 'relu'),
layers.Dense(10)])
optimizer = optimizers.SGD(learning_rate = 0.001)
def train_epoch(epoch):
for step,(x,y) in enumerate(train_dataset):
with tf.GradientTape() as tape:
x = tf.reshape(x, (-1,28*28))
out = model(x)
loss = tf.reduce_sum(tf.square(out - y)) / x.shape[0]
grads = tape.gradient(loss, model.trainable_variables)
optimizer.apply_gradients(zip(grads,model.trainable_variables))
if step % 100 == 0:
print(epoch,step,'loss',loss.numpy())
def train():
for epoch in range(30):
train_epoch(epoch)
if __name__ == '__main__':
train()
import os
import tensorflow as tf
from tensorflow import keras
from tensorflow.keras import layers, optimizers, datasets
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
这段代码导入了所需的库,包括os、tensorflow和tensorflow.keras。然后,通过设置环境变量TF_CPP_MIN_LOG_LEVEL,将TensorFlow的日志级别设置为2,以避免大量冗余的输出信息。
(x, y), (x_val, y_val) = datasets.mnist.load_data()
x = tf.convert_to_tensor(x, dtype=tf.float32) / 255.
y = tf.convert_to_tensor(y, dtype=tf.int32)
y = tf.one_hot(y, depth=10)
print(x.shape, y.shape)
这段代码加载了MNIST数据集,并将其分为训练集和验证集。datasets.mnist.load_data()返回一个元组,其中包含训练集(x, y)和验证集(x_val, y_val)。
接下来,将图像数据x转换为tf.float32数据类型,并进行归一化处理,使得所有像素值在0到1之间。
标签数据y被转换为tf.int32数据类型,并使用tf.one_hot()将每个标签转换为长度为10的独热编码向量。
最后,打印出训练集的图像数据维度和标签数据维度。
train_dataset = tf.data.Dataset.from_tensor_slices((x, y))
train_dataset = train_dataset.batch(200)
这段代码使用tf.data.Dataset.from_tensor_slices()创建了训练数据集。将图像数据x和标签数据y作为参数传入,得到一个包含每个样本的Dataset对象。
然后通过.batch(200)方法将训练数据集划分为批次,每个批次的大小为200。
model = keras.Sequential([
layers.Dense(512, activation='relu'),
layers.Dense(256, activation='relu'),
layers.Dense(10)])
这段代码定义了一个序列模型model。它使用keras.Sequential()创建,并由三个全连接层组成。第一个隐藏层有512个单元,激活函数为ReLU;第二个隐藏层有256个单元,同样使用ReLU激活函数;最后一个输出层没有指定激活函数,它有10个单元,对应于10个类别的预测结果。
optimizer = optimizers.SGD(learning_rate=0.001)
这段代码创建了一个随机梯度下降(SGD)优化器optimizer,并设置学习率为0.001。
def train_epoch(epoch):
for step, (x, y) in enumerate(train_dataset):
with tf.GradientTape() as tape:
x = tf.reshape(x, (-1, 28*28))
out = model(x)
loss = tf.reduce_sum(tf.square(out - y)) / x.shape[0]
grads = tape.gradient(loss, model.trainable_variables)
optimizer.apply_gradients(zip(grads, model.trainable_variables))
if step % 100 == 0:
print(epoch, step, 'loss', loss.numpy())
这段代码定义了一个train_epoch(epoch)函数,用于执行每个训练周期的训练过程。
在每个训练步骤中,使用tf.GradientTape()创建一个梯度带,用于记录前向传播过程中的计算过程。通过tf.reshape()将输入数据x变形为二维张量,以适应全连接层的输入形状。然后,通过模型model进行前向传播,得到输出out。
采用均方误差(MSE)作为损失函数,计算模型输出与标签之间的差异,并求取平均值作为损失。然后,通过梯度带计算出损失相对于模型可训练变量的梯度grads。
最后,使用优化器optimizer的apply_gradients()方法,根据梯度更新模型的可训练变量。在每100个训练步骤时,打印当前训练周期、训练步骤和损失值。
def train():
for epoch in range(30):
train_epoch(epoch)
if __name__ == '__main__':
train()
这段代码定义了一个train()函数,用于执行整个训练过程。
它循环执行30个训练周期,并调用train_epoch(epoch)函数进行训练。
最后,通过__name__ == '__main__'的判断,保证代码只在直接运行时执行。调用train()函数来开始训练过程。