小白的机器学习之路(四)神经网络的初步认识:基于pytorch搭建自己的神经网络

小白的机器学习之路(四)

  • 引子
  • 神经网络的基本结构
  • 反向传播算法和激活函数
  • 优化器
  • 如何通过pytorch搭建自己的BP network

引子

当前交通大数据业务的需要,需要承担一部分算法工作(数据处理),考虑到上次研究深度学习算法还是两年前,我薄弱的基础已经无法支持当前的工作,通过前期的学习准备(其它算法工程师和chatgpt 的帮助),制定了五天的初步复习计划----初步定为:

目标四:

  • 学习深度学习基础:了解神经网络的基本结构、反向传播算法和激活函数等。

目标任务:使用深度学习算法构建一个简单的神经网络模型,并训练模型。

学习计划小贴士:

  • 每天定期复习前几天的内容,巩固知识。

  • 在学习过程中遇到问题及时查阅资料,或向论坛、社区寻求帮助。

  • 尝试在学习过程中动手实践,通过编写代码来加深对算法和原理的理解。

  • 学习过程中保持积极的学习态度和耐心,机器学习和深度学习是复杂的领域,需要持续学习和实践。

  • 学习机器学习基础:了解机器学习的定义、分类和基本原理。

  • 掌握数据预处理:学习数据清洗、特征选择和特征工程的基本方法。

准备一份草稿,后面更新

神经网络的基本结构

反向传播算法和激活函数

优化器

如何通过pytorch搭建自己的BP network

这里用到一个新的接口 torch.nn.Module

小白的机器学习之路(四)神经网络的初步认识:基于pytorch搭建自己的神经网络_第1张图片

解释一下,torch.nn给了我们一个快速搭建bp的脚手架,我们可以直接设定参数来选择层数、神经元个数、每层的功能等;
对应的api如下

在这里插入图片描述

小白的机器学习之路(四)神经网络的初步认识:基于pytorch搭建自己的神经网络_第2张图片

小白的机器学习之路(四)神经网络的初步认识:基于pytorch搭建自己的神经网络_第3张图片

这里,我搭建一个简单网络进行处理,输入一些数据进行测试:

import torch
import torchvision.datasets
from torch.utils.data import Dataset
from PIL import Image
from torch import nn
import torch.nn.functional as F
import numpy as np
from torch.utils.data import DataLoader


class MyData(nn.Module):

    def __init__(self) -> None:
        super().__init__()
        self.conv1 = nn.Conv2d(1,20,1)
        self.conv2 = nn.Conv2d(20,20,5)



    def forward(self, input):
        output = F.relu(self.conv1(input))
        output = F.relu(self.conv2(output))
        return output

dataset  = torchvision.datasets.CIFAR10("../data", train=False, transform=torchvision.transforms.ToTensor(),
                             download=True)
dataloader = DataLoader(dataset, batch_size=64)

MyData = MyData()
x = torch.Tensor([[
        [[0.1000, 0.1000, 0.1000, 0.1000, 0.5000],
        [0.1000, 0.1000, 0.1000, 0.1000, 0.5000],
        [0.1000, 0.1000, 0.1000, 0.1000, 0.5000],
        [0.1000, 0.1000, 0.1000, 0.1000, 0.5000],
        [0.1000, 0.1000, 0.1000, 0.1000, 0.5000]]
]])

print(x)
print("ouput:", MyData(x))


结果分析:

tensor([[[[0.1000, 0.1000, 0.1000, 0.1000, 0.5000],
[0.1000, 0.1000, 0.1000, 0.1000, 0.5000],
[0.1000, 0.1000, 0.1000, 0.1000, 0.5000],
[0.1000, 0.1000, 0.1000, 0.1000, 0.5000],
[0.1000, 0.1000, 0.1000, 0.1000, 0.5000]]]])

ouput: tensor([[[[0.0000]], [[0.1192]], [[0.0000]], [[0.0000]], [[0.0000]], [[0.0115]], [[0.0885]], [[0.0000]],

        self.conv1 = nn.Conv2d(1,20,1)
        self.conv2 = nn.Conv2d(20,20,5)

这里的Conv2d(1,20,1)是指进行卷积,输入通道数1,输出通道为20,我们的卷积核为1*1;
最后进过两轮卷积,最后生成对应的结果;

卷积广泛应用于图像分类,下一章我们将讲到一个图像分类的小项目;

图像分类,根据各自在图像信息中所反映的不同特征,把不同类别的目标区分开来的图像处理方法。它利用计算机对图像进行定量分析,把图像或图像中的每个像元或区域划归为若干个类别中的某一种,以代替人的视觉判读。

卷积神经网络(CNN)是用于图像分类问题的最流行的神经网络模型。CNN背后的一个重要思想是,对图像的局部理解是好的。实际的好处是,参数少将大大缩短了学习所需的时间,并减少了训练模型所需的数据量。CNN具有足够的权重来查看图像的小块,而不是来自每个像素的完全连接的权重网络。

你可能感兴趣的:(机器学习,机器学习,神经网络,pytorch)