Keras有两种类型的模型,序贯模型(Sequential)和函数式模型(Model),函数式模型应用更为广泛,序贯模型是函数式模型的一种特殊情况。
a)序贯模型(Sequential):单输入单输出,一条路通到底,层与层之间只有相邻关系,没有跨层连接。这种模型编译速度快,操作也比较简单
b)函数式模型(Model):多输入多输出,层与层之间任意连接。这种模型编译速度慢。
Model.compile( optimizer = 优化器, loss = 损失函数, metrics = [“准确率”])。
model.fit(训练集的输入特征
,训练集的标签
, batch_size
, epochs
, validation_data = (测试集的输入特征,测试集的标签)
, validataion_split = 从测试集划分多少比例给训练集
, validation_freq = 测试的 epoch 间隔次数)
断点续训
借助 tensorflow 给出的回调函数,直接保存参数和网络
tf.keras.callbacks.ModelCheckpoint(filepath=路径文件名,
save_weights_only=True,
monitor='val_loss', # val_loss or loss
save_best_only=True)
history = model.fit(x_train, y_train
, batch_size=32
, epochs=5
, validation_data=(x_test, y_test)
, validation_freq=1
, callbacks=[cp_callback])
monitor 配合 save_best_only 可以保存最优模型,包括:训练损失最小模型、测试损失最小模型、训练准确率最高模型、测试准确率最高模型等。
import tensorflow as tf
import os
mnist = tf.keras.datasets.mnist
(x_train, y_train), (x_test, y_test) = mnist.load_data()
x_train, x_test = x_train / 255.0, x_test / 255.0
model = tf.keras.models.Sequential([tf.keras.layers.Flatten(),
tf.keras.layers.Dense(128,activation='relu'),
tf.keras.layers.Dense(10,activation='softmax')
])
model.compile(optimizer='adam',
loss = tf.keras.losses.SparseCategoricalCrossentropy(from_logits=False),
metrics='sparse_categorical_accuracy')
checkpoint_save_path = "./checkpoint/mnist.ckpt"
if os.path.exists(checkpoint_save_path+'.index'):#如果保存过模型,会有.index后缀的文件
print('-------------load the model-----------------')
model.load_weights(checkpoint_save_path)
cp_callback = tf.keras.callbacks.ModelCheckpoint(filepath=checkpoint_save_path
,save_weights_only=True
,save_best_only=True)
history = model.fit(x_train, y_train
,batch_size=32
,epochs=5
,validation_data=(x_test, y_test)
,validation_freq=1 #指使用验证集实施验证的频率。当等于1时代表每个epoch结束都验证一次
,callbacks=[cp_callback])
1、打印权重
提取可训练参数
model.trainable_variables 模型中可训练的参数
2、设置 print 输出格式
np.set_printoptions(precision=小数点后按四舍五入保留几位
,threshold=数组元素数量少于或等于门槛值,打印全部元素;
否则打印门槛值+1 个元素,中间用省略号补充)
np.set_printoptions(precision=5)
print(np.array([1.123456789])) # [1.12346]
np.set_printoptions(threshold=5)
print(np.arange(10)) #[0 1 2 … , 7 8 9]
注:precision=np.inf 打印完整小数位;threshold=np.nan 打印全部数组元素
import tensorflow as tf
import os
import numpy as np
np.set_printoptions(threshold=np.inf)
mnist = tf.keras.datasets.mnist
(x_train, y_train), (x_test, y_test) = mnist.load_data()
x_train, x_test = x_train / 255.0, x_test / 255.0
model = tf.keras.models.Sequential([
tf.keras.layers.Flatten(),
tf.keras.layers.Dense(128, activation='relu'),
tf.keras.layers.Dense(10, activation='softmax')
])
model.compile(optimizer='adam',
loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=False),
metrics=['sparse_categorical_accuracy'])
checkpoint_save_path = "./checkpoint/mnist.ckpt"
if os.path.exists(checkpoint_save_path + '.index'):
print('-------------load the model-----------------')
model.load_weights(checkpoint_save_path)
cp_callback = tf.keras.callbacks.ModelCheckpoint(filepath=checkpoint_save_path,
save_weights_only=True,
save_best_only=True)
history = model.fit(x_train, y_train, batch_size=32, epochs=5, validation_data=(x_test, y_test), validation_freq=1,
callbacks=[cp_callback])
model.summary()
print(model.trainable_variables)
file = open('./weights.txt', 'w')
for v in model.trainable_variables:
file.write(str(v.name) + '\n')
file.write(str(v.shape) + '\n')
file.write(str(v.numpy()) + '\n')
file.close()
#调用history属性
acc = history.history['sparse_categorical_accuracy'] 有5个epoch,又因为validation_freq=1,所以总共有5个值
[0.9888166785240173,
0.9910833239555359,
0.9925000071525574,
0.9941166639328003,
0.9950666427612305]
val_acc = history.history['val_sparse_categorical_accuracy']
loss = history.history['loss'] 也是5个值
val_loss = history.history['val_loss']
predict(输入数据, batch_size=整数) 返回前向传播计算结果
(1)x:输入数据,Numpy 数组(或者 Numpy 数组的列表,如果模型有多个输出)
(2)batch_size:整数,由于 GPU 的特性,batch_size最好选用 8,16,32,64……,如果未指定,默认为 32
(3)verbose: 日志显示模式,0 或 1
(4)steps: 声明预测结束之前的总步数(批次样本),默认值 None
(5)返回:预测的 Numpy 数组(或数组列表)
因为Sequential()比较简单,这边采用class类封装网络结构,如下所示是一个 class 模板,MyModel 表示声明的神经网络的名字。括号中的 Model 表示创建的类需要继承 tensorflow 库中的 Model 类。类中需要定义两个函数,init()函数为类的构造函数用于初始化类的参数,spuer(MyModel,self).init()这行表示初始化父类的参数。之后便可初始化网络结构,搭建出神经网络所需的各种网络结构块。call()函数中调用__init__()函数中完成初始化的网络块,实现前向传播并返回推理值。
class MyModel (Model):
def __init__(self):
super(MyModel ,self).__init__()
#初始化模型结构
def call(self,x):
y = self.dl(x)
return y
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
iris = load_iris()
data = iris.data
target= iris.target
train_x,test_x,train_y,test_y=train_test_split(data,target,test_size=0.25)
class IrisModel(Model):
def __init__(self):
super(IrisModel,self).__init__()
self.d1 = Dense(3 #d1表示这层的名字
,activation='softmax'
,kernel_regularizer=tf.keras.regularizers.l2())
def call(self,x):
y = self.d1(x)
return y
model = IrisModel()
model.compile(optimizer=tf.keras.optimizers.SGD(lr=0.1),
loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=False),
metrics=['sparse_categorical_accuracy'])
model.fit(train_x
, train_y
, batch_size=32
, epochs=500
, validation_split=0.2
, validation_freq=20)
选择SparseCategoricalCrossentrop 作为损失函数。由于神经网络输出使用了softmax 激活函数,使得输出是概率分布,而不是原始输出,所以需要将from_logits 参数设置为 False。鸢尾花数据集给的标签是 0,1,2 这样的数值,而网络前向传播的输出为 概率分布,所以 metrics 需要设置未sparse_categorical_accuracy。
class MnistModel(Model):
def __init__(self):
super(MnistModel,self).__init__()
self.flat = Flatten()
self.d1 = Dense(128
,activation='relu')
self.d2 = Dense(10
,activation='softmax')
def call(self,x):
x = self.flat(x)
x = self.d1(x)
y = self.d2(x)
return y
model = MnistModel()
model.compile(optimizer='adam',
loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=False),
metrics=['sparse_categorical_accuracy'])
model.fit(x_train, y_train, batch_size=32, epochs=5, validation_data=(x_test, y_test), validation_freq=1)
model.summary()