系列文章:
所谓多模型单步预测:比如前10个预测后3个,那么我们可以训练三个模型分别根据[1…10]预测[11]、[12]以及[13]。也就是说如果需要进行n步预测,那么我们一共需要训练n个LSTM模型,缺点很突出。
我们根据前24个时刻的负荷以及该时刻的环境变量来预测接下来12个时刻的负荷(步长pred_step_size可调)。
简单来说,如果需要利用前24个值预测接下来12个值,那么我们需要生成12个数据集。
模型和之前的文章一致:
class LSTM(keras.Model):
def __init__(self, args):
super(LSTM, self).__init__()
self.lstm = Sequential()
for i in range(args.num_layers):
self.lstm.add(layers.LSTM(units=args.hidden_size, input_shape=(args.seq_len, args.input_size),
activation='tanh', return_sequences=True))
self.fc1 = layers.Dense(64, activation='relu')
self.fc2 = layers.Dense(args.output_size)
def call(self, data, training=None, mask=None):
x = self.lstm(data)
x = self.fc1(x)
x = self.fc2(x)
return x[:, -1:, :]
与前文不同的是,这种方法需要训练多个模型:
if __name__ == '__main__':
flag = 'mmss'
Dtrs, Vals, Dtes, m, n = load_data(args, flag, batch_size=args.batch_size)
for Dtr, Val, path in zip(Dtrs, Vals, LSTM_PATHS):
train(args, Dtr, Val, path)
Dtrs, Vals, Dtes, m, n = load_data(args, flag, batch_size=1)
m_test(args, Dtes, LSTM_PATHS, [m, n])
模型测试:多步预测的每一步,都需要用不同的模型来进行预测。值得注意的是,在正式预测时,数据的batch_size需要设置为1。
前24个预测未来12个,每个模型训练30个epoch,MAPE为8.73%,比上一篇文章中的单步滚动预测效果更好:
后面将陆续公开~