利用全连接网络完成汽车的效能指标 MPG 的回归问题预测。
Auto MPG 数据集,它记录了各种汽车效能指标与气缸数、重量、马力等其 他因子的真实数据,查看数据集的前 5 项,如表所示,其中每个字段的含义列在表中。除了产地的数字字段表示类别外,其他字段都是数值型。对于产地地段,1 表 示美国,2 表示欧洲,3 表示日本。
import pandas as pd
# 获取数据
dataset_path = '框架学习/tensorflow2.0/auto-mpg.csv'
# 利用pandas读取数据集,字段有效能(公里数每加仑),气缸数,排量,马力,重量,加速度,型号年份,产地
column_names = ['MPG','Cylinders','Displacement','Horsepower','Weight','Acceleration', 'Model Year', 'Origin','car name']
raw_dataset = pd.read_csv(dataset_path, names=column_names,na_values = "?", comment='\t', skipinitialspace=True)
dataset = raw_dataset.copy()
dataset.drop(index=0,inplace=True)
del dataset['car name']
# 查看部分数据
dataset.describe()
原始数据中的数据可能含有空字段(缺失值)的数据项,需要清除这些记录项:
# 统计空白数据
dataset.isna().sum()
# 删除空白数据项
dataset = dataset.dropna()
# 再次统计空白数据
dataset.isna().sum()
由于 Origin 字段为类别数据,我们将其移动出来,并转换为新的 3 个字段:USA,Europe 和 Japan,分别代表是否来自此产地:
# 处理类别型数据,其中 origin 列代表了类别 1,2,3,分布代表产地:美国、欧洲、日本
# 先弹出(删除并返回)origin 这一列
origin = dataset.pop('Origin')
# 根据 origin 列来写入新的 3 个列
dataset['USA'] = (origin == 1)*1.0
dataset['Europe'] = (origin == 2)*1.0
dataset['Japan'] = (origin == 3)*1.0
dataset.tail()
按着 8:2 的比例切分训练集和测试集:
# 切分为训练集和测试集
train_dataset = dataset.sample(frac=0.8,random_state=0)
test_dataset = dataset.drop(train_dataset.index)
# 移动 MPG 油耗效能这一列为真实标签 Y
train_labels = train_dataset.pop('MPG')
test_labels = test_dataset.pop('MPG')
# 查看训练集的输入 X 的统计数据
train_stats = train_dataset.describe()
#train_stats.pop('MPG')
train_stats = train_stats.transpose()
# 标准化数据
def norm(x):
return (x - train_stats['mean']) / train_stats['std']
normed_train_data = norm(train_dataset)
normed_test_data = norm(test_dataset)
print(normed_train_data.shape,train_labels.shape)
print(normed_test_data.shape, test_labels.shape)
利用切分的训练集数据构建数据集对象:
# 构建Dataset对象
train_db = tf.convert_to_tensor(train_dataset.value,train_labels.value)
# 随机打散,批量化
train_db = train_db.shuffle(100).batch(32)
考虑到 Auto MPG 数据集规模较小,所以只创建一个 3 层的全连接层网络来完成 MPG 值的预测任务。输入 X 的特征共有 9 种,因此第一层的输入节点数为 9。第一层、第二层的输出节点数设计为64,64,由于只有一种预测值,输出层输出节点设计为 1。考虑MPG ∈ \in ∈R+,因此最后一次的激活函数可以不加,也可以添加 ReLU 激活函数。
将网络实现为一个自定义网络类,只需要在初始化函数中创建各个子网络层,并在前向计算函数 call 中实现自定义网络类的计算逻辑即可。自定义网络类继承自 keras.Model 基类,这也是自定义网络类的标准写法,以方便地利用 keras.Model 基类提供 的 trainable_variables 等各种便捷功能:
class Network(keras.Model):
# 回归网络
def __init__(self):
super(Network, self).__init__()
# 创建3个全连接层
self.fc1 = layers.Dense(64, activation='relu')
self.fc2 = layers.Dense(64, activation='relu')
self.fc3 = layers.Dense(1)
def call(self, inputs, training=None, mask=None):
# 依次通过 3 个全连接层
x = self.fc1(inputs)
x = self.fc2(x)
x = self.fc3(x)
return x
在完成主网络模型类的创建后,我们来实例化网络对象和创建优化器:
# 创建网络类实例
model = Network()
# 通过 build 函数完成内部张量的创建,其中 4 为任意的 batch 数量,9 为输入特征长度
model.build(input_shape=(4, 9))
# 打印网络信息
model.summary()
# 创建优化器,指定学习率
optimizer = tf.keras.optimizers.RMSprop(0.001)
接下来实现网络训练部分。通过 Epoch 和 Step 的双层循环训练网络,共训练 200 个 epoch:
for epoch in range(200): # 200个Epoch
for step, (x,y) in enumerate(train_db): # 遍历一次训练集
# 梯度记录器
with tf.GradientTape() as tape:
out = model(x) # 通过网络获得输出
loss = tf.reduce_mean(losses.MSE(y, out)) # 计算 MSE
mae_loss = tf.reduce_mean(losses.MAE(y, out)) # 计算 MAE
if step % 10 == 0: # 打印训练误差
print(epoch, step, float(loss))
# 计算梯度,并更新
grads = tape.gradient(loss, model.trainable_variables)
optimizer.apply_gradients(zip(grads, model.trainable_variables))