01-线性回归

import keras
import numpy as np
import matplotlib.pyplot as plt 
from keras.models import Sequential #按顺序构成的模型 如一层层构成的神经网络
from keras.layers import Dense  #全连接层
#生成数据
x = np.random.rand(100)
noise = np.random.normal(0,0.01,x.shape)  #增加噪声
y = x * 0.1 + 0.2 + noise
#绘制散点图
plt.scatter(x,y)
plt.show()  
#构建顺序模型
model = Sequential()
#在模型中添加一个全连接层  units:输出的维度  input_dim:输入的维度
model.add(Dense(units=1,input_dim = 1))
#optimizer:优化器  默认sgd:随机梯度下降法 loss:损失函数  mse:均方误差
model.compile(optimizer='sgd',loss='mse')  
#训练模型
for step in range(3001):
    #训练模型不是一次只放入一个数据进行训练的,
    #一般每次都是放入一个批次的数据进行训练,用train_on_batch实现
    cost = model.train_on_batch(x,y)
    if step % 300 == 0:
        print('cost:',cost)
#model.layers[0].get_weights 返回某一层的权值和偏置
w,b = model.layers[0].get_weights()   
print("w:",w,'b:',b)
y_predict = model.predict(x)
plt.scatter(x,y)
plt.plot(x,y_predict,color='red',lw=3)  #plot 绘制折线图 lw:线宽
plt.show()

01-线性回归_第1张图片

你可能感兴趣的:(深度学习,深度学习,tensorflow)