E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
深度学习实践
pytorch
深度学习实践
第二讲 线性模型
机器学习过程:Dataset→ModelSelect→Training→推理过拟合:训练集上有很好的结果,但是训练集外却不能很好的拟合数据。主要原因是训练集存在噪声或训练数据太少。泛化:训练出的模型在训练集外同样适用。数据集:训练集(通常还会分成训练集和开发集,用作模型评估)和测试集。线性模型:y_hat=f(x)=wx+b,训练的目的就是得到w和b。损失loss:预测值与真实值之间的差值。平均平
啥都不会的研究生←_←
·
2023-01-27 08:52
pytorch学习
pytorch
PyTorch
深度学习实践
第二讲线性模型
目录监督学习四步骤线性模型泛化代码作业监督学习四步骤DataSet(数据集)Model(模型选择和设计,例如神经网络,决策树等)Training(大部分模型都需要训练,都有些例如KNN不需要训练)Inferring(推导使用)线性模型假设一个学生每周花费x小时在学习上,那么他可能会在最终测验上取得y分。xy1224364?进行猜测之后可能为y^=x∗w+b\hat{y}=x*w+by^=x∗w+b
筱翼深凉
·
2023-01-27 08:47
AI
深度学习
pytorch
Pytorch
深度学习实践
(一)——线性模型
参考资料B站刘二老师Pytorch
深度学习实践
1.线性回归采用深度学习Pytorch框架搭建线性回归模型通常需要四个步骤:准备数据构建计算图:①__init__()②forward()构建损失函数和优化器训练
冠long馨
·
2023-01-27 07:58
深度学习
pytorch
深度学习
python
cnn学习资料
6,《解析卷积神经网络-
深度学习实践
手册》
huyongcode
·
2023-01-26 06:27
pytorch
深度学习实践
第7讲 处理多维特征输入
第5讲处理多维特征的输入MultipleDimensionInputpytorch学习视频——B站视频链接:《PyTorch
深度学习实践
》完结合集_哔哩哔哩_bilibili以下是视频内容笔记以及小练习源码
会游泳的小雁
·
2023-01-25 16:15
pytorch学习
python
pytorch
【Pytorch
深度学习实践
】第7讲 处理多维特征的输入
什么是矩阵:空间转换,从N维映射到M维空间的线性变换神经网络:非线性空间变换#Multiple_Dimension_Input#处理多维数据输入importnumpyasnpimporttorchxy=np.loadtxt('data/diabetes.csv.gz',delimiter=',',dtype=np.float32)x_data=torch.from_numpy(xy[:,:-1])
方方方方便面
·
2023-01-25 16:15
PyTorch深度学习实践
Pytorch
深度学习实践
Lecture_7 Multiple Dimension Input
up主刘二大人视频链接刘二大人的个人空间_哔哩哔哩_Bilibili多维输入如下图为糖尿病数据集,输入为10个样本,每个样本具有8维特征(怀孕次数,血糖,血压,皮脂厚度,胰岛素,BMI身体质量指数,糖尿病遗传函数,年龄),最后一列为标签(结果),0表示未患糖尿病,1表示患有糖尿病。逻辑回归模型由于输入数据维数增多,而预测值是标量,所以模型需要使用矩阵形式做计算说明:1.乘的权重(w)都一样,加的偏
endeavor`
·
2023-01-25 15:13
Pytorch深度学习实践
pytorch
处理多维特征的输入 Multiple Dimension Input
参考,自学PyTorch
深度学习实践
(刘二大人)P7处理多维特征的输入MultipleDimensionInput_努力学习的朱朱的博客-CSDN博客激活函数:参考(常用激活函数(激励函数)理解与总结)
非常可爱的刘妹妹
·
2023-01-25 15:11
pytorch
python
《PyTorch
深度学习实践
》-P7处理多维特征的输入
一行一样本sample,一列一特征featurediebetesdataset数据集在Anaconda/Lib/sit-packages/sklearn/datasets/data/diabetes_data和diebetes_target多维logistic回归模型(下标特征维度,上标样本)mini-batch(Nsamples)将运算向量化,变成矩阵,这样就可以利用GPU的并行运算能力~而不用
m0_60673782
·
2023-01-25 15:10
pytorch
深度学习
人工智能
《PyTorch
深度学习实践
》Lecture_07 处理多维特征的输入 Multiple Dimension Input
B站刘二大人老师的《PyTorch
深度学习实践
》Lecture_07重点回顾+代码复现Lecture_07处理多维特征的输入MultipleDimensionInput一、重点回顾(一)MultipleDimensionLogisticRegressionModel1
木夕敢敢
·
2023-01-25 15:36
PyTorch深度学习
神经网络
深度学习
机器学习
python
刘二大人PyTorch-循环神经网络(RNN)—基础篇
《PyTorch
深度学习实践
》视频一.基础概念对于一个全连接网络,即全部由线性层组成的网络,也称作dense(稠密型)或者deep(深度型)网络,对于一个卷积神经网络,卷积核对多层图像处理,卷积核不变,
TheFanXY
·
2023-01-25 13:51
pytorch
rnn
深度学习
《PyTorch
深度学习实践
》-B站 刘二大人-day6
加载数据集B站刘二大人的PyTorch
深度学习实践
——加载数据集这次的视频是继续优化上一个视频的代码,上次我们输入糖尿病病人的数据,在处理是没有才有分成几个部分的处理,而是一整坨的放进去进行计算了,所以在加载数据集这方面我们就优化一样
爱编程的西瓜
·
2023-01-25 13:21
#
神经网络
pytorch
深度学习
python
Bilibili-刘二大人《Pytorch
深度学习实践
》第13讲 Advanced RNN实验代码
'''''''''构建一个RNN分类器任务:一个名称分类器,根据输入的名字判断其国籍,数据集有Name与Country在这个场景中,由于输出无法通过线性层映射到某个维度,所以可以只用hn来连接线性层,对这个输入做一个18维的分类'''''''''importcsvimportgzipimporttorchimportmatplotlib.pyplotaspltimportnumpyasnpfrom
GrandGoblin
·
2023-01-25 13:20
nlp
深度学习
gru
吴恩达【深度学习】笔记01——向量化、For循环及Python中的Broadcasting
向量化是非常基础的去除代码中for循环的艺术,在深度学习安全领域、
深度学习实践
中,你会经常发现自己训练大数据集,因为深度学习算法处理大数据集效果很棒,所以代码的运行速度非常重要。
美式咖啡不加糖x
·
2023-01-23 15:10
DeepLearning
python
深度学习
机器学习
Pytorch
深度学习实践
第六讲 逻辑回归
分类问题不是让“预测值”等于“类别”,而是计算属于每个类别的概率,要概率最大的。(将预测值通过Sigmoid函数从实数空间映射到[0,1])Logistic函数(仅仅是sigmiod函数中最典型的一种):x→+,(x)→1;x→-,(x)→0;x=0,(x)=1/2计算图:相比线性单元,Logistic回归单元后面多了一个Sigmiod激活函数。二分类问题的损失函数:y=1时,loss=,越大,l
啥都不会的研究生←_←
·
2023-01-18 17:05
pytorch学习
PyTorch
深度学习实践
部分代码示例
Pytorch基础教程:B站刘二大人视频PyTorch
深度学习实践
线性模型1.穷举法2.梯度下降算法(贪心法)3.反向传播4.用PyTorch实现线性回归5.逻辑斯蒂回归6.处理多维特征输入神经网络1.
SDUer_DZL
·
2023-01-18 17:32
深度学习
pytorch
python
1024程序员节
《PyTorch
深度学习实践
》学习笔记—— 第1讲 Overview
文章目录前言1算法2框架3学习系统发展4维度诅咒压缩空间线性5深度学习系统与以前的差别6机器学习策略前言本文仅为个人学习记录,便于以后查看使用。1算法四种:穷举法贪心法分治法动态规划2框架只是包含关系,如表示学习只是机器学习的一部分。3学习系统发展4维度诅咒假设1个维度上取10个样本可做到贴近实际分布,则2个维度需要102=100个样本,3个维度需要103=1000个样本……N个维度就需要10N个
書辭
·
2023-01-17 10:20
《PyTorch深度学习实践》
Python学习笔记
深度学习
深度学习
【PyTorch
深度学习实践
】学习笔记 第五节 线性回归
课程链接PyTorch
深度学习实践
第五节课程。gogogo~!
咯吱咯吱咕嘟咕嘟
·
2023-01-17 10:19
深度学习pytorch
pytorch
深度学习
学习
PyTorch
深度学习实践
之用PyTorch实现线性回归
课程地址:05.用PyTorch实现线性回归_哔哩哔哩_bilibili目录理论编辑1.准备数据(使用mini-batch目的是为了一次性求出y_hat)2.定义模型3.构造损失函数和优化器4.训练过程课程代码总结代码:解决方法:1.根据老师的方法多迭代几次2.适当调整学习率lr作业疑惑理论1.准备数据(使用mini-batch目的是为了一次性求出y_hat)2.定义模型构造函数的模板→扩展模型完
Yory__
·
2023-01-17 09:14
深度学习
pytorch
线性回归
《PyTorch
深度学习实践
》P10卷积神经网络基础篇CNN
全部代码在最后面。基本模式:patch:单通道,卷积做数乘:先数乘再加:每一个卷积核通道数量和输入通道数量一样!卷积核总数量和输出通道数量一样!卷积核数量和图片大小没关想得到和原来一样的维度,padding怎么计算加外围多少层:(如图所示)例子:code:在这里importtorchinput=[3,4,6,5,7,2,4,6,8,2,1,6,7,8,4,9,7,4,6,2,3,7,5,4,1]#
XD101DX
·
2023-01-16 06:36
pytorch
pytorch
深度学习
cnn
【PyTorch
深度学习实践
】06_多维特征输入(以逻辑斯蒂回归为例)
文章目录1.多维数据2.多维数据在逻辑回归中的计算过程3.代码改变及其含义4.完整代码1.多维数据每一行为一个样本(sample),数据库里一行称为一个Record。每一列为一个特征(feature),数据库里叫字段。2.多维数据在逻辑回归中的计算过程偏置(bias)——b,通过广播机制变成向量与前面的矩阵进行运算。3.代码改变及其含义训练过程4.完整代码importnumpyasnpimport
青山的青衫
·
2023-01-16 06:06
#
Pytorch
深度学习
pytorch
回归
【PyTorch
深度学习实践
】07_Dataset和Dataloader
文章目录1.Epoch,Iteration,Batch-Size2.Dataset和Dataloader2.1Dataset2.2Dataloader2.2.1例子2.2.2enumerate函数3.完整代码1.Epoch,Iteration,Batch-Size参考博客2.Dataset和Dataloader参考博客功能概览2.1Datasettorch.utils.data.Dataset是一
青山的青衫
·
2023-01-16 06:06
#
Pytorch
深度学习
pytorch
python
【PyTorch
深度学习实践
】08_Softmax分类器(多分类)
文章目录1.Softmax层1.1softmax的函数表示1.2损失函数2.代码实现1.Softmax层当需要多分类的时候,会输出一个分布,这些分布需要满足P(y=i)>=0和所有的P值加起来=1,使用softmax可以实现。要注意的是,softmax本质上和sigmoid一样也是一个激活函数。sigmoid用于二分类,softmax用于多分类。1.1softmax的函数表示示例1.2损失函数关于
青山的青衫
·
2023-01-16 06:06
#
Pytorch
深度学习
pytorch
分类
PyTorch
深度学习实践
第10讲 卷积神经网络(基础篇)
CPUimporttorchfromtorchvisionimporttransformsfromtorchvisionimportdatasetsfromtorch.utils.dataimportDataLoaderimporttorch.nn.functionalasFbatch_size=64transform=transforms.Compose([transforms.ToTensor
Grairain
·
2023-01-16 06:04
PyTorch
深度学习实践
深度学习
pytorch
cnn
PyTorch
深度学习实践
第十讲 ---卷积神经网络基础篇
Demo10:卷积神经网络基础篇来源:B站刘二大人说明卷积神经网络前一部分叫做特征提取(FeatureExtraction),后一部分叫做分类(classification)一个卷积核它的通道数量要求和输入通道是一样的。这种卷积核的总数有多少个和你输出通道的数量是一样的。卷积(convolution)后,C(Channels)变,W(width)和H(Height)可变可不变,取决于是否paddi
Vinsada
·
2023-01-16 06:34
Pytorch框架实践
深度学习
pytorch
cnn
PyTorch
深度学习实践
10——卷积神经网络基础
卷积过程示意图:卷积核的数量要和输入的通道数(Channel数)相等N个输入channel,1个输出channel:N个输入channel,M个输出channel:构造一层卷积层(4维张量)需要四个维度:输入大小,输出大小,卷积核W,卷积核H构造卷积层实例代码:importtorchin_channels,out_channels=5,10width,height=100,100kernel_si
UnFledged
·
2023-01-16 06:02
PyTorch深度学习实践
深度学习
pytorch
cnn
Pytorch深度学习(七):卷积神经网络(基础篇)
Pytorch深度学习(七):卷积神经网络(CNN)(基础篇)参考B站课程:《PyTorch
深度学习实践
》完结合集传送门:《PyTorch
深度学习实践
》完结合集卷积神经网络是一种带有卷积结构的深度神经网络
Yuriy_Xiong
·
2023-01-16 06:01
Pytorch深度学习
深度学习
pytorch
cnn
PyTorch
深度学习实践
-P10卷积神经网络
代码部分参考了csdn上别的博主,经测试可以跑成功复习:上一节的全连接神经网络任意两个节点之间都有权重全连接层处理图片时丢失了部分空间信息,因为为它把输入直接连成了一长串,但没有考虑他们在图片中的位置处理图像时常用的二维卷积神经网络:考虑输入输出维度,做空间变换工作方式:输入图像1*28*28的张量c*w*h卷积层:保留图像的空间特征featuremaps:卷积之后,依然是三维张量,得到了4*24
m0_60673782
·
2023-01-16 06:30
pytorch
深度学习
cnn
PyTorch
深度学习实践
——梯度下降
学习总结:这一课在B站上学习了梯度下降,对于其中认识总结如下:在初入深度学习坑时,我们经常会听到一个词语叫”梯度下降算法“,老实说,在没有学习这一章节我也对此毫无头绪,在学习玩之后,对此有了以下总结:对于一个问题而言,我们总可以提出三个问题:是什么?为什么?以及怎么样?对于梯度下降也是同样,以下总结从三个方面来解释:梯度下降是什么?简单来说就是一种寻找目标函数最小化的方法,它利用梯度信息,通过不断
不见当年灰太狼
·
2023-01-16 06:00
pytorch深度学习
pytorch
机器学习
深度学习
神经网络
PyTorch
深度学习实践
——卷积神经网络
importtorchfromtorchvisionimporttransformsfromtorchvisionimportdatasetsfromtorch.utils.dataimportDataLoaderimporttorch.nn.functionalasFimporttorch.optimasoptimimporttorchvisionimportmatplotlib.pyplota
不见当年灰太狼
·
2023-01-16 06:00
pytorch深度学习
pytorch
神经网络
深度学习
《PyTorch
深度学习实践
》Lecture_10 卷积神经网络基础 CNN
B站刘二大人老师的《PyTorch
深度学习实践
》Lecture_10重点回顾+代码复现Lecture_10卷积神经网络ConvolutionalNeuralNetwork一、重点回顾——卷积神经网络的结构
木夕敢敢
·
2023-01-16 06:59
PyTorch深度学习
深度学习
卷积神经网络
pytorch
【PyTorch
深度学习实践
】09_卷积神经网络基础
文章目录1.卷积操作1.1卷积操作1.2padding-填充1.3stride-步长1.4pooling-池化1.5基础版CNN代码示例1.6完整CNN代码示例1.卷积操作卷积神经网络概览1.1卷积操作输入通道数=卷积核通道数,卷积核个数=输出通道数1.2padding-填充padding是为了让源图像最外一圈或多圈像素(取决于kernel的尺寸),能够被卷积核中心取到。这里有个描述很重要:想要使
青山的青衫
·
2023-01-16 06:28
#
Pytorch
深度学习
cnn
pytorch
pytorch
深度学习实践
_p10_CNN卷积神经网络实现数字辨识
完整代码importtorchfromtorchvisionimporttransformsfromtorchvisionimportdatasetsfromtorch.utils.dataimportDataLoaderimporttorch.nn.functionalasFimporttorch.optimasoptim#1、准备数据集batch_size=64transform=transf
L_halley
·
2023-01-16 06:28
pytorch深度学习实践
神经网络
卷积
NLP预训练模型小型化与部署的那些事儿
文本问答、结构化数据问答、文本翻译、机器同传、对话系统等实践项目的全流程讲解,旨在帮助开发者更全面清晰地掌握百度飞桨框架在NLP领域的用法,并能够举一反三、灵活使用飞桨框架和PaddleNLP进行NLP
深度学习实践
飞桨PaddlePaddle
·
2023-01-14 09:16
人工智能
深度学习
神经网络
自然语言处理
机器学习
pytorch实战(正在更新)
本文参照多个视频,首先见B站刘二大人的《PyTorch
深度学习实践
》完结合集。
Shengkun Wu
·
2023-01-13 09:12
pytorch
人工智能
python
《PyTorch
深度学习实践
》课上代码笔记 三
自学笔记课程老师:刘二大人河北工业大学教师https://liuii.github.io课程来源:https://www.bilibili.com/video/BV1Y7411d7Ys推荐一个服务器租赁的平台相比于阿里腾讯等平台,亲测性价比要高,显卡有1080Ti、2080Ti、3080Ti等,运行速度自然比自己的笔记本快,也能保护自己心爱的笔记本,实例中有JupyterNotebook、Visu
Zhanglw882
·
2023-01-12 16:16
pytorch课程代码笔记
深度学习
pytorch
神经网络
机器学习
卷积神经网络
《PyTorch
深度学习实践
》刘二大人 第4讲 反向传播
课堂代码importtorchx_data=[1.0,2.0,3.0]y_data=[2.0,4.0,6.0]w=torch.tensor([1.0])w.requires_grad=Truedefforward(x):returnw*xdefloss(x,y):y_pred=forward(x)return(y_pred-y)**2forepochinrange(100):forx,yinzip
Grairain
·
2023-01-12 11:54
PyTorch
深度学习实践
深度学习
pytorch
人工智能
B站刘二大人-反向传播Lecture4
系列文章:《PyTorch
深度学习实践
》完结合集-B站刘二大人Pytorch代码注意的细节,容易敲错的地方B站刘二大人-线性回归及梯度下降Lecture3B站刘二大人-反向传播Lecture4B站刘二大人
宁然也
·
2023-01-12 11:23
PyTorch使用
python
机器学习
深度学习
刘二大人 《PyTorch
深度学习实践
》第3讲 梯度下降算法
指路☞《PyTorch
深度学习实践
》完结合集_哔哩哔哩_bilibili知识补充:1、预设一个w值,然后算斜率(梯度),如果梯度大于0,我们要往梯度小的方向进行,即减去它,反之一样。
qq_39705798
·
2023-01-12 11:47
pytorch
深度学习
机器学习
刘二大人 《PyTorch
深度学习实践
》第5讲 用Pytorch实现线性回归
指路☞《PyTorch
深度学习实践
》完结合集_哔哩哔哩_bilibili知识补充:1、pytorch神经网络模型2、类后面加括号,表示构造对象;Linear的对象里面包含w和b,将来我们可以直接用Linear
qq_39705798
·
2023-01-12 11:47
pytorch
深度学习
线性回归
刘二大人 《PyTorch
深度学习实践
》第8讲 加载数据集(笔记)
指路☞《PyTorch
深度学习实践
》完结合集_哔哩哔哩_bilibili目录一、知识补充二、课堂代码三、作业一、知识补充1、Dataset和DataLoader是构造数据集的两个类,其中Dataset是构造数据集
qq_39705798
·
2023-01-12 11:47
pytorch
深度学习
人工智能
刘二大人《PyTorch
深度学习实践
》第2讲
指路☞《PyTorch
深度学习实践
》完结合集_哔哩哔哩_bilibili知识补充:1、zip(x_data,y_data)表示将将对象中对应的元素打包成一个个元组,然后返回由这些元组组成的列表。
qq_39705798
·
2023-01-12 11:17
pytorch
深度学习
python
Pytorch
深度学习实践
(b站刘二大人)P4讲(反向传播)
课堂代码:#反向传播课上代码importtorchx_data=[1.0,2.0,3.0]y_data=[2.0,4.0,6.0]w=torch.tensor([1.0])#w的初值为1.0w.requires_grad=True#默认为False,True表示需要计算梯度defforward(x):returnx*w#其中w是tensor,乘法运算符被重载,tensor与tensor的乘法,所以
努力学习的朱朱
·
2023-01-12 11:16
pytorch
深度学习
python
《PyTorch
深度学习实践
》Lecture_04 反向传播 Back Propagation
B站刘二大人老师的《PyTorch
深度学习实践
》Lecture_04重点回顾+手记+代码复现+知识补充Lecture_04反向传播BackPropagation一、重点回顾(一)计算图ComputationalGraph1
木夕敢敢
·
2023-01-12 11:12
PyTorch深度学习
深度学习
机器学习
python
刘二大人 《Pyorch
深度学习实践
》第4讲 反向传播
指路☞《PyTorch
深度学习实践
》完结合集_哔哩哔哩_bilibili知识补充:1、从左到右是前向,从右到左是反向传播*****************************************
qq_39705798
·
2023-01-12 11:39
深度学习
人工智能
【PyTorch
深度学习实践
】05_逻辑斯蒂回归
文章目录1.分类问题相关数据集1.1MINIST1.2CIFAR-102.回归(Regression)VS分类(Classification)2.1模型对比2.2损失函数对比2.3实现代码对比3.完整代码之前使用线性回归解决的都是**回归(预测)**问题,逻辑斯蒂回归模型可以用来解决另一大问题——分类。注意逻辑斯蒂回归虽然名为回归,但解决的是分类问题,是最简单的分类问题模型,用于解决二分类。1.分
青山的青衫
·
2023-01-10 16:01
#
Pytorch
深度学习
pytorch
回归
PyTorch
深度学习实践
——4.反向传播
PyTorch
深度学习实践
——4.反向传播课程链接:《PyTorch
深度学习实践
》4.反向传播思路:1、先算损失loss2、算反向传播backwardloss.backward():dloss\dw==
皮肤科大白
·
2023-01-10 16:30
pytorch
python
深度学习
pytorch
python
《Pytorch
深度学习实践
》反向传播课程代码
importtorchimportnumpyasnpimportmatplotlib.pyplotaspltx_data=[1.0,2.0,3.0]y_data=[2.0,4.0,6.0]w=torch.Tensor([0.0])w.requires_grad=True#是否需要计算梯度=truedefforward(x):returnx*wdefloss(x,y):#创建一个计算图y_pred=
相心木
·
2023-01-10 16:30
pytorch
深度学习
机器学习
PyTorch
深度学习实践
第5讲 用PyTorch实现线性回归
importtorchx_data=torch.tensor([[1.0],[2.0],[3.0]])y_data=torch.tensor([[2.0],[4.0],[6.0]])classLinearModel(torch.nn.Module):def__init__(self):super(LinearModel,self).__init__()#(1,1)是指输入x和输出y的特征维度,这里
Grairain
·
2023-01-10 16:00
PyTorch
深度学习实践
深度学习
pytorch
线性回归
Pytorch
深度学习实践
Lecture_4 Back Propagation
up主刘二大人视频链接刘二大人的个人空间_哔哩哔哩_Bilibili反向传播可以通过链式法则,使得梯度在计算图中进行反向传播在Pytorch中,Tensor对象包含data和grad两个属性 data:用于存放tensor,是数据本体。 grad:存放data的梯度值(默认不计算梯度)在Pytorch中,Tensor之间的计算即为动态生成计算图(谨记)importtorchimportmatp
endeavor`
·
2023-01-10 16:58
Pytorch深度学习实践
pytorch
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他