1)描述各层网络
model = tf.keras.models.Sequential([网络结构])
2)网络结构举例
拉直层
tf.keras.layers.Flatten()
全连接层
tf.keras.layers.Dense(神经元个数,activation="激活函数",kernel_regularizer=哪种正则化)
# activation(字符串给出)可选:relu、softmax、sigmoid、tanh
# kernel_regularizer可选:tf.keras.regularizers.l1()、tf.keras.regularizers.l2()
卷积层
tf.keras.layers.Conv2D(filters=卷积核个数,kernel_size=卷积核尺寸,strides=卷积步长,padding="valid"or"same")
LSTM层
tf.keras.layers.LSTM()
model.compile(optimizer=优化器,loss=损失函数,metrics=["准确率"])
optimizer可选:
'sgd' or tf.keras.optimizers.SGD(lr=学习率,momentum=动量参数)
'adagrad' or tf.keras.optimizers.Adagrad(lr=学习率)
'adadelta' or tf.keras.optimizers.Adadelta(lr=学习率)
'adam' or tf.keras.optimizers.Adam(lr=学习率,beta_1=O.9,beta_2=0.999)
loss可选:
'mse' or tf.keras.losses.MeanSquaredError()
'sparse_categorical_crossentropy' or tf.keras,losses.SparseCategoricalCrossentropy(from_logits=False)
Metrics可选:
'accuracy':y_和y都是数值,如y_=[1] y=[1]
'categorical_accuracy':y_和y都是独热码(概率分布),如y_=[0,1,0] y=[0.256,0.695,0.048]
'sparse_categorical_accuracy':y-是数值,y是独热码(概率分布),如y_=[1] y=[0.256,0.695,0.048]
model.fit(训练集的输入特征,训练集的标签,batch_size= ,epoch= ,validation_data=(测试集的输入特征,测试集的标签),validation_split=从训练集划分多少比例给测试集,validation_freq=多少次epoch测试一次)
model.summary()
# import相关模块
import tensorflow as tf
from sklearn import datasets
import numpy as np
# 交代训练集的输入特征x_train和标签y_train
x_train = datasets.load_iris().data
y_train = datasets.load_iris().target
# 实现了数据集的乱序
# seed是随机种子,保证每次循环生成的随机数是一样的,输入特征和标签一一对应
np.random.seed(116)
np.random.shuffle(x_train)
np.random.seed(116)
np.random.shuffle(y_train)
tf.random.set_seed(116)
# Sequential搭建网络结构
# 参数分别为:神经元个数3,选用的激活函数softmax,选用的正则化方法l2
model = tf.keras.models.Sequential([
tf.keras.layers.Dense(3, activation='softmax', kernel_regularizer=tf.keras.regularizers.l2())
])
# compile配置训练方法
# 参数分别为:
# SGD优化器,学习率0.1
# 损失函数 SparseCategoricalCrossentropy
# from_logits是False:因为神经网络末端选用了softmax函数,使得输出是概率分布而不是原始输出
# sparse_categorical_accuracy作为评测指标:因为鸢尾花数据集给的标签是0 1 2,神经网络前向传播的输出是概率分布
model.compile(optimizer=tf.keras.optimizers.SGD(lr=0.1),
loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=False),
metrics=['sparse_categorical_accuracy'])
# fit执行训练过程
# 参数分别为:
# x_train:训练集输入特征
# y_train:训练集标签
# batch_size:训练时一次喂入神经网络多少组数据
# epochs:训练集迭代循环多少次
# validation_split:告知从训练集中选择20%的数据作为测试集
# validation_freq:每迭代20次训练集,要在测试集中验证一次准确率
model.fit(x_train, y_train, batch_size=32, epochs=500, validation_split=0.2, validation_freq=20)
# summary打印网络结构和参数统计
model.summary()
可以理解为__init__函数准备出搭建网络需要的各种积木,call函数调用__init__中搭建好的积木
init() 定义所需网络结构块
call() 写出前向传播
class MyModel(Model):
def__init__(self):
super(MyModel,self).__init__()
定义网络结构块
def call(self,x):
调用网络结构块,实现前向传播
return y
model = MyModel()
# import相关模块
import tensorflow as tf
# 添加了model模块
from tensorflow.keras.layers import Dense
from tensorflow.keras import Model
from sklearn import datasets
import numpy as np
# 交代训练集的输入特征x_train和标签y_train
x_train = datasets.load_iris().data
y_train = datasets.load_iris().target
# 实现了数据集的乱序
np.random.seed(116)
np.random.shuffle(x_train)
np.random.seed(116)
np.random.shuffle(y_train)
tf.random.set_seed(116)
# 搭建网络结构
# 定义了IrisModel类
class IrisModel(Model):
def __init__(self):
super(IrisModel, self).__init__()
# 定义了要在call函数中调用的,具有三个神经元的全连接网络Dense
self.d1 = Dense(3, activation='softmax', kernel_regularizer=tf.keras.regularizers.l2())
def call(self, x):
# 调用self.d1实现了从输入x到输出y的前向传播
y = self.d1(x)
return y
# 实例化model
model = IrisModel()
# compile配置训练方法
model.compile(optimizer=tf.keras.optimizers.SGD(lr=0.1),
loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=False),
metrics=['sparse_categorical_accuracy'])
# fit执行训练过程
model.fit(x_train, y_train, batch_size=32, epochs=500, validation_split=0.2, validation_freq=20)
# summary打印网络结构和参数统计
model.summary()
import tensorflow as tf
from matplotlib import pyplot as plt
# 导入mnist数据集
mnist = tf.keras.datasets.mnist
# 使用load_data从数据集中读取训练集和测试集
(x_train, y_train), (x_test, y_test) = mnist.load_data()
# 可视化训练集输入特征的第一个元素
plt.imshow(x_train[0], cmap='gray') # 绘制灰度图
plt.show()
# 打印出训练集输入特征的第一个元素
print("x_train[0]:\n", x_train[0])
# 打印出训练集标签的第一个元素
print("y_train[0]:\n", y_train[0])
# 打印出整个训练集输入特征形状:60000张图片,每张图片是28*28
print("x_train.shape:\n", x_train.shape)
# 打印出整个训练集标签的形状
print("y_train.shape:\n", y_train.shape)
# 打印出整个测试集输入特征的形状
print("x_test.shape:\n", x_test.shape)
# 打印出整个测试集标签的形状
print("y_test.shape:\n", y_test.shape)
import tensorflow as tf
# 导入mnist数据集
mnist = tf.keras.datasets.mnist
# 使用load_data从数据集中读取训练集和测试集
(x_train, y_train), (x_test, y_test) = mnist.load_data()
# 输入特征归一化,使像素值集中在0到1之间
x_train, x_test = x_train / 255.0, x_test / 255.0
# 搭建网络结构
# 作为输入特征,输入神经网络时,将数据拉伸为一维数组
# 第一层网络128个神经元,激活函数relu
# 第二层网络10个神经元,激活函数softmax
model = tf.keras.models.Sequential([
tf.keras.layers.Flatten(),
tf.keras.layers.Dense(128, activation='relu'),
tf.keras.layers.Dense(10, activation='softmax')
])
# 配置训练方法
model.compile(optimizer='adam',
loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=False),
metrics=['sparse_categorical_accuracy'])
# 执行训练过程
model.fit(x_train, y_train, batch_size=32, epochs=5, validation_data=(x_test, y_test), validation_freq=1)
# 打印出网络结构和参数统计
model.summary()