PyTorch 深度学习实践 第7讲

B站 刘二大人 ,传送门PyTorch深度学习实践——处理多维特征的输入

1:当输入值是多维向量,且输出值不再是连续的实数,而是一个发生的概率时。
2:矩阵:作为一个空间变换的函数
3:通过引入非线性变换,进行一个降维操作,使用torch.nn.Linear,使得计算更加简单
4:一般来说,隐层数量越多,非线性学习能力是越强的,但是事实上并非如此,隐藏层愈多,可能会将样本中的噪声也学习进去,从而造成过拟合的现象。我们要去模型要有足够好的泛化能力。
函数代码如下:

import numpy as np
import torch
import matplotlib.pyplot as plt

xy=np.loadtxt('diabetes.csv.gz',delimiter=',',dtype=np.float32)
# 第一个:代表读取所有行,第二个冒号代表从第一列开始,最后一列不读取
x_data=torch.from_numpy(xy[:,:-1])
# 中括号代表读取到的是一个矩阵
y_data=torch.from_numpy(xy[:,[-1]])


# design model using class

class Model(torch.nn.Module):
    def __init__(self):
        super(Model,self).__init__()
        # 输入是8维,输出时6维
        self.linear1=torch.nn.Linear(8,6)
        self.linear2=torch.nn.Linear(6,4)
        self.linear3=torch.nn.Linear(4,1)
        self.sigmoid=torch.nn.Sigmoid()

    def forward(self,x):
        x=self.sigmoid(self.linear1(x))
        x=self.sigmoid(self.linear2(x))
        x=self.sigmoid(self.linear3(x))
        return x
model=Model()

# construct loss and optimizer

# criterion=torch.nn.BCELoss(size_average=True)
criterion=torch.nn.BCELoss(reduction='mean')
optimizer=torch.optim.SGD(model.parameters(),lr=0.1)

epoch_list = []
loss_list = []
# training cycle

for epoch in range(100):
    y_pred=model(x_data)
    loss=criterion(y_pred,y_data)
    print(epoch,loss.item())
    epoch_list.append(epoch)
    loss_list.append(loss.item())

    optimizer.zero_grad()
    loss.backward()

    optimizer.step()

    plt.plot(epoch_list, loss_list)
    plt.ylabel('loss')
    plt.xlabel('epoch')
    plt.show()

代码说明 :1、diabetes.csv数据集老师给了下载地址,该数据集需和源代码放在同一个文件夹内。

参考博客:
https://blog.csdn.net/bit452/article/details/109682078

你可能感兴趣的:(pytorch,深度学习,python)