整理自keras:https://keras-cn.readthedocs.io/en/latest/other/callbacks/
参考:https://blog.csdn.net/li_haiyu/article/details/80894299
回调函数是一个函数的合集,会在训练的阶段中所使用。你可以使用回调函数来查看训练模型的内在状态和统计。你可以传递一个列表的回调函数(作为 callbacks
关键字参数)到 Sequential
或 Model
类型的 .fit()
方法。在训练时,相应的回调函数的方法就会被在各自的阶段被调用。
keras.callbacks.Callback()
这是回调函数的抽象类,定义新的回调函数必须继承自该类
params:字典,训练参数集(如信息显示方法verbosity,batch大小,epoch数)
model:keras.models.Model
对象,为正在训练的模型的引用
回调函数以字典logs
为参数,该字典包含了一系列与当前batch或epoch相关的信息。
目前,模型的.fit()
中有下列参数会被记录到logs
中:
在每个epoch的结尾处(on_epoch_end),logs
将包含训练的正确率和误差,acc
和loss
,如果指定了验证集,还会包含验证集正确率和误差val_acc)
和val_loss
,val_acc
还额外需要在.compile
中启用metrics=['accuracy']
。
在每个batch的开始处(on_batch_begin):logs
包含size
,即当前batch的样本数
在每个batch的结尾处(on_batch_end):logs
包含loss
,若启用accuracy
则还包含acc
keras.callbacks.ModelCheckpoint(filepath, monitor='val_loss', verbose=0, save_best_only=False, save_weights_only=False, mode='auto', period=1)
该回调函数将在每个epoch后保存模型到filepath
filepath
可以包括命名格式选项,可以由 epoch
的值和 logs
的键(由 on_epoch_end
参数传递)来填充。
save_best_only=True
, 将只保存在验证集上性能最好的模型save_best_only=True
,那么是否覆盖保存文件的决定就取决于被监测数据的最大或者最小值。 对于 val_acc
,模式就会是 max
,而对于 val_loss
,模式就需要是 min
,等等。 在 auto
模式中,方向会自动从被监测的数据的名字中判断出来。model.save_weights(filepath)
), 否则的话,整个模型会被保存 (model.save(filepath)
)。① 从keras.callbacks导入ModelCheckpoint类
from keras.callbacks import ModelCheckpoint
② 在训练阶段的model.compile之后加入下列代码实现每一次epoch(period=1)保存最好的参数
checkpoint = ModelCheckpoint(filepath,
monitor='val_loss', save_weights_only=True,verbose=1,save_best_only=True, period=1)
③ 在训练阶段的model.fit之前加载先前保存的参数
if os.path.exists(filepath):
model.load_weights(filepath)
# 若成功加载前面保存的参数,输出下列信息
print("checkpoint_loaded")
④ 在model.fit添加callbacks=[checkpoint]实现回调
model.fit_generator(data_generator_wrap(lines[:num_train], batch_size, input_shape, anchors, num_classes),
steps_per_epoch=max(1, num_train//batch_size),
validation_data=data_generator_wrap(lines[num_train:], batch_size, input_shape, anchors, num_classes),
validation_steps=max(1, num_val//batch_size),
epochs=3,
initial_epoch=0,
callbacks=[checkpoint])