Pytorch(一) --线性模型

最终还是要学Pytorch,Tensorflow也很好,不过对于做研究来讲,还是有些许的不足,这算是Pytorch的一个入门吧。
针对y=w*x这样一个线性模型,利用穷举法去线性的模拟这个直线。虽然这一章并没有真的用到Pytorch的具体内容,不过这算是深度学习的一个入门。
代码如下:

import numpy as np
import matplotlib.pyplot as plt
#y = 2*x
x_data = [1.0,2.0,3.0]
y_data = [2.0,4.0,6.0]

def forward(x):#根据穷举出来的w,计算在该w的情况下得到的y'
    return x*w
def loss(x,y):#根据得到的y',计算loss值
    y_pred = forward(x)
    return (y-y_pred)**2
#穷举法
w_list = []
mse_list = []
for w in np.arange(0.0,4.1,0.1):#以0.1为间隔,穷举w
    print("w=",w)
    l_sum=0
    for x_val,y_val in zip(x_data,y_data):
        y_pred_val = forward(x_val)
        loss_val = loss(x_val,y_val)
        l_sum+=loss_val
        print('\t',x_val,y_val,y_pred_val,loss_val)
    print('MSE=',l_sum/3)
    w_list.append(w)
    mse_list.append(l_sum/3)
plt.plot(w_list,mse_list)
plt.ylabel('Loss')
plt.xlabel('w')
plt.show()

最终得到的结果如下:
Pytorch(一) --线性模型_第1张图片
在w=2的时候,Loss值达到最小。
课后作业:
针对y=w*x+b,同样利用上述方法,得到一个近似的线性模型。
代码如下(参考链接):

import numpy as np
import matplotlib.pyplot as plt
from mpl_toolkits.mplot3d import Axes3D

#假设函数为y=2x+3
x_data = [1.0,2.0,3.0]
y_data = [5.0,7.0,9.0]

def forward(x):
    return x*w+b
def loss(x,y):
    y_pred = forward(x)
    return (y_pred-y)**2

mse_list = []
W = np.arange(0.0,4.1,0.1)
B = np.arange(0.0,4.1,0.1)
[w,b] = np.meshgrid(W,B)

l_sum = 0
for x_val,y_val in zip(x_data,y_data):
    loss_val = loss(x_val,y_val)
    l_sum+=loss_val

fig = plt.figure()
ax = Axes3D(fig)
ax.plot_surface(w,b,l_sum/3)
plt.show()

对代码有疑问的,可以查看一下np.meshgrid这个函数的用法。它的返回值是两个矩阵,在本样例中就是两个41*41的矩阵。在后面的运算中也都是矩阵在运算.
最终结果如下所示:
Pytorch(一) --线性模型_第2张图片
努力加油a啊

你可能感兴趣的:(Pytorch,pytorch,深度学习,python)