pytorch 神经网络套路 实现多维输入特征的二分类

1.数据集:

传送门:内含刘老师讲课视频PPT及相关数据集,本文所用数据集名为diabetes.cvs.gz

链接:https://pan.baidu.com/s/1vZ27gKp8Pl-qICn_p2PaSw
提取码:cxe4

pytorch 神经网络套路 实现多维输入特征的二分类_第1张图片

其中,x1,,,x8表示不同特征,y表示分类

2.模型:

pytorch 神经网络套路 实现多维输入特征的二分类_第2张图片

刘老师视频中采用以上模型,本文线性层输出特征改为4,2,1,其他保持不变。

loss:BCELoss

optimizer:SGD

3.pthon代码:

import numpy as np
import torch
from torch import nn
from torch.nn import Linear, BCELoss
from torch.optim import SGD
import matplotlib.pyplot as plt

# 导入数据集,前8列表示特征,最后一列表示分类
xy = np.loadtxt("diabetes.csv.gz", delimiter=',', dtype=np.float32)

# 取第六行及之后的所有数据作为训练集
x_data = torch.Tensor(xy[6:, :-1])
y_data = torch.Tensor(xy[6:, [-1]])


# 建立模型,3个线性层,3个sigmoid非线性激活函数
class model(nn.Module):
    def __init__(self):
        super(model, self).__init__()
        self.linear1 = Linear(8, 4, bias=True)
        self.linear2 = Linear(4, 2, bias=True)
        self.linear3 = Linear(2, 1, bias=True)

    def forward(self, x):
        x = torch.sigmoid(self.linear1(x))
        x = torch.sigmoid(self.linear2(x))
        x = torch.sigmoid(self.linear3(x))
        return x


# 类实例化
my_model = model()

# 二分类问题,继续采用BCELoss
loss_cal = BCELoss(size_average=True)

# 随机梯度下降
optimizer = SGD(my_model.parameters(), lr=0.01)

# 空列表
epoch_list = []
loss_list = []

for epoch in range(100000):
    epoch_list.append(epoch)
    # 前向计算
    y_pred = my_model(x_data)
    loss = loss_cal(y_pred, y_data)
    loss_list.append(loss.item())
    # 梯度清零
    optimizer.zero_grad()
    # 反向传播
    loss.backward()
    # 参数调整
    optimizer.step()

# 画出loss随epoch变化曲线图
plt.figure()
plt.plot(epoch_list, loss_list)
plt.xlabel("epoch")
plt.ylabel("loss")
plt.show()

# 取前五行的所有数据作为训练集
x_test = torch.Tensor(xy[:5, :-1])
y_test = torch.Tensor(xy[:5, [-1]])
y_test1 = my_model(x_test)
print(y_test1.data)
print(y_test.data)

# 测试结果:
# tensor([[0.2201],
#         [0.9745],
#         [0.1834],
#         [0.9952],
#         [0.1783]])
# tensor([[0.],
#         [1.],
#         [0.],
#         [1.],
#         [0.]])

4.可视化结果:

pytorch 神经网络套路 实现多维输入特征的二分类_第3张图片

 随着epoch增加,loss逐渐减小并收敛。

5.以上均为个人学习pytorch基础入门中的基础,浅做记录,如有错误,请各位大佬批评指正!

6.关于问题描述和原理的部分图片参考刘老师的视频课件,本文也是课后作业的一部分,特此附上视频链接,《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili,希望大家都有所进步!!

你可能感兴趣的:(笔记,Python,Pytorch,神经网络,pytorch,分类)