图像去雾毕业论文准备15-深度学习框架(pytorch)——超级详细(基收集数据集、线性回归)

图像去雾毕业论文准备15-深度学习框架(pytorch)——超级详细(收集数据集)

还是之前的那个例子,之前是抽象的进行讲解,本节拆分细讲!
线性回归细讲

#!/usr/bin/python3.6
# -*- coding: utf-8 -*-
# @Time    : 2021/1/6 11:04
# @Author  : ptg
# @Email   : [email protected]
# @File    : 线性回归分解写法.py
# @Software: PyCharm

# 导入库
import torch
import numpy as np
import matplotlib.pyplot as plt
import pandas as pd
from torch import  nn

data = pd.read_csv('dataset.csv')
# print(data)
# 如果直接这样使用,返回的是andas.core.series.Series格式
X = data.Education
# 所以需要使用array类型,在类型后加上一个values即可转化成array类型
X = data.Education.values.reshape(-1,1).astype(np.float32)
"""
数据预处理
"""
# 通过输入可以将以上的numpy转化成torch
X = torch.from_numpy(data.Education.values.reshape(-1,1).astype(np.float32))
print(X)
Y = torch.from_numpy(data.Income.values.reshape(-1,1).astype(np.float32))

# 需要跟踪这个变量
w = torch.randn(1,requires_grad=True)
b = torch.zeros(1,requires_grad=True)

# 模型公式: w*input(x) + b
# 创建模型
learning_rate = 0.0001

for epoch in range(5000):
    for x,y in zip(X,Y):
        y_pred = torch.matmul(x,w)+b
        loss = (y - y_pred).pow(2).mean() #差的平方求均值
        # 下面的操作需要进行赋值零操作,不然梯度会累加
        if not w.grad is None:
            w.grad.data.zero_()#就地改为0
        if not w.grad is None:
            b.grad.data.zero_()#就地改为0
        loss.backward()
        with torch.no_grad():
            w.data -= w.grad.data*learning_rate
            b.data -= b.grad.data*learning_rate
print("w",w)
print("b",b)
plt.scatter(data.Education,data.Income)
plt.plot(X.numpy(),(X*w + b).data.numpy(),c='r')
plt.show()

图像去雾毕业论文准备15-深度学习框架(pytorch)——超级详细(基收集数据集、线性回归)_第1张图片

你可能感兴趣的:(Python-opencv专栏,去雾毕业论文,python)