keras基础--2.非线性回归

#coding:utf-8
import keras
import numpy as np
import matplotlib.pyplot as plt
#Sequential按顺序构成的模型
from keras.models import Sequential
#Dense全连接层
from keras.layers import Dense
from keras.layers import Activation
from keras.optimizers import SGD

# 使用numpy生成200个随机点
x_data = np.linspace(-0.5,0.5,200)
noise = np.random.normal(0,0.02,x_data.shape)
y_data = np.square(x_data) + noise

# 显示随机点
plt.scatter(x_data,y_data)
plt.show()

keras基础--2.非线性回归_第1张图片

# 构建一个顺序模型
model = Sequential()
# 在模型中添加一个全连接层
# 1-10-1
model.add(Dense(units=10,input_dim=1,activation='relu'))
# model.add(Activation('tanh'))
# 默认输入是上一层的10,可以不设置
model.add(Dense(units=1,activation='relu'))
# model.add(Activation('tanh'))
# 定义优化算法
sgd = SGD(lr=0.3)

# sgd:Stochastic gradient descent, 随机梯度下降法(默认)
# mse:Mean Squaed Error, 均方误差
model.compile(optimizer=sgd,loss='mse')

#训练3001个批次
for step in range(6001):
    #每次训练一个批次
    cost = model.train_on_batch(x_data,y_data)
    # 每500个batch打印一次cost值
    if step % 500 == 0:
        print('cost:',cost)

# 打印权值和偏置值
W,b = model.layers[0].get_weights()
print('W:',W,'b:',b)

#x_data输入网络中,得到预测值y_pred
y_pred = model.predict(x_data)

#显示随机点
plt.scatter(x_data,y_data)
# 显示预测结果
plt.plot(x_data,y_pred,'r-',lw=3)
plt.show()

keras基础--2.非线性回归_第2张图片

你可能感兴趣的:(keras基础,深度学习,python)