E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
•深度学习实践
《PyTorch
深度学习实践
》-P7处理多维特征的输入
一行一样本sample,一列一特征featurediebetesdataset数据集在Anaconda/Lib/sit-packages/sklearn/datasets/data/diabetes_data和diebetes_target多维logistic回归模型(下标特征维度,上标样本)mini-batch(Nsamples)将运算向量化,变成矩阵,这样就可以利用GPU的并行运算能力~而不用
m0_60673782
·
2023-01-25 15:10
pytorch
深度学习
人工智能
《PyTorch
深度学习实践
》Lecture_07 处理多维特征的输入 Multiple Dimension Input
B站刘二大人老师的《PyTorch
深度学习实践
》Lecture_07重点回顾+代码复现Lecture_07处理多维特征的输入MultipleDimensionInput一、重点回顾(一)MultipleDimensionLogisticRegressionModel1
木夕敢敢
·
2023-01-25 15:36
PyTorch深度学习
神经网络
深度学习
机器学习
python
刘二大人PyTorch-循环神经网络(RNN)—基础篇
《PyTorch
深度学习实践
》视频一.基础概念对于一个全连接网络,即全部由线性层组成的网络,也称作dense(稠密型)或者deep(深度型)网络,对于一个卷积神经网络,卷积核对多层图像处理,卷积核不变,
TheFanXY
·
2023-01-25 13:51
pytorch
rnn
深度学习
《PyTorch
深度学习实践
》-B站 刘二大人-day6
加载数据集B站刘二大人的PyTorch
深度学习实践
——加载数据集这次的视频是继续优化上一个视频的代码,上次我们输入糖尿病病人的数据,在处理是没有才有分成几个部分的处理,而是一整坨的放进去进行计算了,所以在加载数据集这方面我们就优化一样
爱编程的西瓜
·
2023-01-25 13:21
#
神经网络
pytorch
深度学习
python
Bilibili-刘二大人《Pytorch
深度学习实践
》第13讲 Advanced RNN实验代码
'''''''''构建一个RNN分类器任务:一个名称分类器,根据输入的名字判断其国籍,数据集有Name与Country在这个场景中,由于输出无法通过线性层映射到某个维度,所以可以只用hn来连接线性层,对这个输入做一个18维的分类'''''''''importcsvimportgzipimporttorchimportmatplotlib.pyplotaspltimportnumpyasnpfrom
GrandGoblin
·
2023-01-25 13:20
nlp
深度学习
gru
吴恩达【深度学习】笔记01——向量化、For循环及Python中的Broadcasting
向量化是非常基础的去除代码中for循环的艺术,在深度学习安全领域、
深度学习实践
中,你会经常发现自己训练大数据集,因为深度学习算法处理大数据集效果很棒,所以代码的运行速度非常重要。
美式咖啡不加糖x
·
2023-01-23 15:10
DeepLearning
python
深度学习
机器学习
Pytorch
深度学习实践
第六讲 逻辑回归
分类问题不是让“预测值”等于“类别”,而是计算属于每个类别的概率,要概率最大的。(将预测值通过Sigmoid函数从实数空间映射到[0,1])Logistic函数(仅仅是sigmiod函数中最典型的一种):x→+,(x)→1;x→-,(x)→0;x=0,(x)=1/2计算图:相比线性单元,Logistic回归单元后面多了一个Sigmiod激活函数。二分类问题的损失函数:y=1时,loss=,越大,l
啥都不会的研究生←_←
·
2023-01-18 17:05
pytorch学习
PyTorch
深度学习实践
部分代码示例
Pytorch基础教程:B站刘二大人视频PyTorch
深度学习实践
线性模型1.穷举法2.梯度下降算法(贪心法)3.反向传播4.用PyTorch实现线性回归5.逻辑斯蒂回归6.处理多维特征输入神经网络1.
SDUer_DZL
·
2023-01-18 17:32
深度学习
pytorch
python
1024程序员节
《PyTorch
深度学习实践
》学习笔记—— 第1讲 Overview
文章目录前言1算法2框架3学习系统发展4维度诅咒压缩空间线性5深度学习系统与以前的差别6机器学习策略前言本文仅为个人学习记录,便于以后查看使用。1算法四种:穷举法贪心法分治法动态规划2框架只是包含关系,如表示学习只是机器学习的一部分。3学习系统发展4维度诅咒假设1个维度上取10个样本可做到贴近实际分布,则2个维度需要102=100个样本,3个维度需要103=1000个样本……N个维度就需要10N个
書辭
·
2023-01-17 10:20
《PyTorch深度学习实践》
Python学习笔记
深度学习
深度学习
【PyTorch
深度学习实践
】学习笔记 第五节 线性回归
课程链接PyTorch
深度学习实践
第五节课程。gogogo~!
咯吱咯吱咕嘟咕嘟
·
2023-01-17 10:19
深度学习pytorch
pytorch
深度学习
学习
PyTorch
深度学习实践
之用PyTorch实现线性回归
课程地址:05.用PyTorch实现线性回归_哔哩哔哩_bilibili目录理论编辑1.准备数据(使用mini-batch目的是为了一次性求出y_hat)2.定义模型3.构造损失函数和优化器4.训练过程课程代码总结代码:解决方法:1.根据老师的方法多迭代几次2.适当调整学习率lr作业疑惑理论1.准备数据(使用mini-batch目的是为了一次性求出y_hat)2.定义模型构造函数的模板→扩展模型完
Yory__
·
2023-01-17 09:14
深度学习
pytorch
线性回归
《PyTorch
深度学习实践
》P10卷积神经网络基础篇CNN
全部代码在最后面。基本模式:patch:单通道,卷积做数乘:先数乘再加:每一个卷积核通道数量和输入通道数量一样!卷积核总数量和输出通道数量一样!卷积核数量和图片大小没关想得到和原来一样的维度,padding怎么计算加外围多少层:(如图所示)例子:code:在这里importtorchinput=[3,4,6,5,7,2,4,6,8,2,1,6,7,8,4,9,7,4,6,2,3,7,5,4,1]#
XD101DX
·
2023-01-16 06:36
pytorch
pytorch
深度学习
cnn
【PyTorch
深度学习实践
】06_多维特征输入(以逻辑斯蒂回归为例)
文章目录1.多维数据2.多维数据在逻辑回归中的计算过程3.代码改变及其含义4.完整代码1.多维数据每一行为一个样本(sample),数据库里一行称为一个Record。每一列为一个特征(feature),数据库里叫字段。2.多维数据在逻辑回归中的计算过程偏置(bias)——b,通过广播机制变成向量与前面的矩阵进行运算。3.代码改变及其含义训练过程4.完整代码importnumpyasnpimport
青山的青衫
·
2023-01-16 06:06
#
Pytorch
深度学习
pytorch
回归
【PyTorch
深度学习实践
】07_Dataset和Dataloader
文章目录1.Epoch,Iteration,Batch-Size2.Dataset和Dataloader2.1Dataset2.2Dataloader2.2.1例子2.2.2enumerate函数3.完整代码1.Epoch,Iteration,Batch-Size参考博客2.Dataset和Dataloader参考博客功能概览2.1Datasettorch.utils.data.Dataset是一
青山的青衫
·
2023-01-16 06:06
#
Pytorch
深度学习
pytorch
python
【PyTorch
深度学习实践
】08_Softmax分类器(多分类)
文章目录1.Softmax层1.1softmax的函数表示1.2损失函数2.代码实现1.Softmax层当需要多分类的时候,会输出一个分布,这些分布需要满足P(y=i)>=0和所有的P值加起来=1,使用softmax可以实现。要注意的是,softmax本质上和sigmoid一样也是一个激活函数。sigmoid用于二分类,softmax用于多分类。1.1softmax的函数表示示例1.2损失函数关于
青山的青衫
·
2023-01-16 06:06
#
Pytorch
深度学习
pytorch
分类
PyTorch
深度学习实践
第10讲 卷积神经网络(基础篇)
CPUimporttorchfromtorchvisionimporttransformsfromtorchvisionimportdatasetsfromtorch.utils.dataimportDataLoaderimporttorch.nn.functionalasFbatch_size=64transform=transforms.Compose([transforms.ToTensor
Grairain
·
2023-01-16 06:04
PyTorch
深度学习实践
深度学习
pytorch
cnn
PyTorch
深度学习实践
第十讲 ---卷积神经网络基础篇
Demo10:卷积神经网络基础篇来源:B站刘二大人说明卷积神经网络前一部分叫做特征提取(FeatureExtraction),后一部分叫做分类(classification)一个卷积核它的通道数量要求和输入通道是一样的。这种卷积核的总数有多少个和你输出通道的数量是一样的。卷积(convolution)后,C(Channels)变,W(width)和H(Height)可变可不变,取决于是否paddi
Vinsada
·
2023-01-16 06:34
Pytorch框架实践
深度学习
pytorch
cnn
PyTorch
深度学习实践
10——卷积神经网络基础
卷积过程示意图:卷积核的数量要和输入的通道数(Channel数)相等N个输入channel,1个输出channel:N个输入channel,M个输出channel:构造一层卷积层(4维张量)需要四个维度:输入大小,输出大小,卷积核W,卷积核H构造卷积层实例代码:importtorchin_channels,out_channels=5,10width,height=100,100kernel_si
UnFledged
·
2023-01-16 06:02
PyTorch深度学习实践
深度学习
pytorch
cnn
Pytorch深度学习(七):卷积神经网络(基础篇)
Pytorch深度学习(七):卷积神经网络(CNN)(基础篇)参考B站课程:《PyTorch
深度学习实践
》完结合集传送门:《PyTorch
深度学习实践
》完结合集卷积神经网络是一种带有卷积结构的深度神经网络
Yuriy_Xiong
·
2023-01-16 06:01
Pytorch深度学习
深度学习
pytorch
cnn
PyTorch
深度学习实践
-P10卷积神经网络
代码部分参考了csdn上别的博主,经测试可以跑成功复习:上一节的全连接神经网络任意两个节点之间都有权重全连接层处理图片时丢失了部分空间信息,因为为它把输入直接连成了一长串,但没有考虑他们在图片中的位置处理图像时常用的二维卷积神经网络:考虑输入输出维度,做空间变换工作方式:输入图像1*28*28的张量c*w*h卷积层:保留图像的空间特征featuremaps:卷积之后,依然是三维张量,得到了4*24
m0_60673782
·
2023-01-16 06:30
pytorch
深度学习
cnn
PyTorch
深度学习实践
——梯度下降
学习总结:这一课在B站上学习了梯度下降,对于其中认识总结如下:在初入深度学习坑时,我们经常会听到一个词语叫”梯度下降算法“,老实说,在没有学习这一章节我也对此毫无头绪,在学习玩之后,对此有了以下总结:对于一个问题而言,我们总可以提出三个问题:是什么?为什么?以及怎么样?对于梯度下降也是同样,以下总结从三个方面来解释:梯度下降是什么?简单来说就是一种寻找目标函数最小化的方法,它利用梯度信息,通过不断
不见当年灰太狼
·
2023-01-16 06:00
pytorch深度学习
pytorch
机器学习
深度学习
神经网络
PyTorch
深度学习实践
——卷积神经网络
importtorchfromtorchvisionimporttransformsfromtorchvisionimportdatasetsfromtorch.utils.dataimportDataLoaderimporttorch.nn.functionalasFimporttorch.optimasoptimimporttorchvisionimportmatplotlib.pyplota
不见当年灰太狼
·
2023-01-16 06:00
pytorch深度学习
pytorch
神经网络
深度学习
《PyTorch
深度学习实践
》Lecture_10 卷积神经网络基础 CNN
B站刘二大人老师的《PyTorch
深度学习实践
》Lecture_10重点回顾+代码复现Lecture_10卷积神经网络ConvolutionalNeuralNetwork一、重点回顾——卷积神经网络的结构
木夕敢敢
·
2023-01-16 06:59
PyTorch深度学习
深度学习
卷积神经网络
pytorch
【PyTorch
深度学习实践
】09_卷积神经网络基础
文章目录1.卷积操作1.1卷积操作1.2padding-填充1.3stride-步长1.4pooling-池化1.5基础版CNN代码示例1.6完整CNN代码示例1.卷积操作卷积神经网络概览1.1卷积操作输入通道数=卷积核通道数,卷积核个数=输出通道数1.2padding-填充padding是为了让源图像最外一圈或多圈像素(取决于kernel的尺寸),能够被卷积核中心取到。这里有个描述很重要:想要使
青山的青衫
·
2023-01-16 06:28
#
Pytorch
深度学习
cnn
pytorch
pytorch
深度学习实践
_p10_CNN卷积神经网络实现数字辨识
完整代码importtorchfromtorchvisionimporttransformsfromtorchvisionimportdatasetsfromtorch.utils.dataimportDataLoaderimporttorch.nn.functionalasFimporttorch.optimasoptim#1、准备数据集batch_size=64transform=transf
L_halley
·
2023-01-16 06:28
pytorch深度学习实践
神经网络
卷积
NLP预训练模型小型化与部署的那些事儿
文本问答、结构化数据问答、文本翻译、机器同传、对话系统等实践项目的全流程讲解,旨在帮助开发者更全面清晰地掌握百度飞桨框架在NLP领域的用法,并能够举一反三、灵活使用飞桨框架和PaddleNLP进行NLP
深度学习实践
飞桨PaddlePaddle
·
2023-01-14 09:16
人工智能
深度学习
神经网络
自然语言处理
机器学习
pytorch实战(正在更新)
本文参照多个视频,首先见B站刘二大人的《PyTorch
深度学习实践
》完结合集。
Shengkun Wu
·
2023-01-13 09:12
pytorch
人工智能
python
《PyTorch
深度学习实践
》课上代码笔记 三
自学笔记课程老师:刘二大人河北工业大学教师https://liuii.github.io课程来源:https://www.bilibili.com/video/BV1Y7411d7Ys推荐一个服务器租赁的平台相比于阿里腾讯等平台,亲测性价比要高,显卡有1080Ti、2080Ti、3080Ti等,运行速度自然比自己的笔记本快,也能保护自己心爱的笔记本,实例中有JupyterNotebook、Visu
Zhanglw882
·
2023-01-12 16:16
pytorch课程代码笔记
深度学习
pytorch
神经网络
机器学习
卷积神经网络
《PyTorch
深度学习实践
》刘二大人 第4讲 反向传播
课堂代码importtorchx_data=[1.0,2.0,3.0]y_data=[2.0,4.0,6.0]w=torch.tensor([1.0])w.requires_grad=Truedefforward(x):returnw*xdefloss(x,y):y_pred=forward(x)return(y_pred-y)**2forepochinrange(100):forx,yinzip
Grairain
·
2023-01-12 11:54
PyTorch
深度学习实践
深度学习
pytorch
人工智能
B站刘二大人-反向传播Lecture4
系列文章:《PyTorch
深度学习实践
》完结合集-B站刘二大人Pytorch代码注意的细节,容易敲错的地方B站刘二大人-线性回归及梯度下降Lecture3B站刘二大人-反向传播Lecture4B站刘二大人
宁然也
·
2023-01-12 11:23
PyTorch使用
python
机器学习
深度学习
刘二大人 《PyTorch
深度学习实践
》第3讲 梯度下降算法
指路☞《PyTorch
深度学习实践
》完结合集_哔哩哔哩_bilibili知识补充:1、预设一个w值,然后算斜率(梯度),如果梯度大于0,我们要往梯度小的方向进行,即减去它,反之一样。
qq_39705798
·
2023-01-12 11:47
pytorch
深度学习
机器学习
刘二大人 《PyTorch
深度学习实践
》第5讲 用Pytorch实现线性回归
指路☞《PyTorch
深度学习实践
》完结合集_哔哩哔哩_bilibili知识补充:1、pytorch神经网络模型2、类后面加括号,表示构造对象;Linear的对象里面包含w和b,将来我们可以直接用Linear
qq_39705798
·
2023-01-12 11:47
pytorch
深度学习
线性回归
刘二大人 《PyTorch
深度学习实践
》第8讲 加载数据集(笔记)
指路☞《PyTorch
深度学习实践
》完结合集_哔哩哔哩_bilibili目录一、知识补充二、课堂代码三、作业一、知识补充1、Dataset和DataLoader是构造数据集的两个类,其中Dataset是构造数据集
qq_39705798
·
2023-01-12 11:47
pytorch
深度学习
人工智能
刘二大人《PyTorch
深度学习实践
》第2讲
指路☞《PyTorch
深度学习实践
》完结合集_哔哩哔哩_bilibili知识补充:1、zip(x_data,y_data)表示将将对象中对应的元素打包成一个个元组,然后返回由这些元组组成的列表。
qq_39705798
·
2023-01-12 11:17
pytorch
深度学习
python
Pytorch
深度学习实践
(b站刘二大人)P4讲(反向传播)
课堂代码:#反向传播课上代码importtorchx_data=[1.0,2.0,3.0]y_data=[2.0,4.0,6.0]w=torch.tensor([1.0])#w的初值为1.0w.requires_grad=True#默认为False,True表示需要计算梯度defforward(x):returnx*w#其中w是tensor,乘法运算符被重载,tensor与tensor的乘法,所以
努力学习的朱朱
·
2023-01-12 11:16
pytorch
深度学习
python
《PyTorch
深度学习实践
》Lecture_04 反向传播 Back Propagation
B站刘二大人老师的《PyTorch
深度学习实践
》Lecture_04重点回顾+手记+代码复现+知识补充Lecture_04反向传播BackPropagation一、重点回顾(一)计算图ComputationalGraph1
木夕敢敢
·
2023-01-12 11:12
PyTorch深度学习
深度学习
机器学习
python
刘二大人 《Pyorch
深度学习实践
》第4讲 反向传播
指路☞《PyTorch
深度学习实践
》完结合集_哔哩哔哩_bilibili知识补充:1、从左到右是前向,从右到左是反向传播*****************************************
qq_39705798
·
2023-01-12 11:39
深度学习
人工智能
【PyTorch
深度学习实践
】05_逻辑斯蒂回归
文章目录1.分类问题相关数据集1.1MINIST1.2CIFAR-102.回归(Regression)VS分类(Classification)2.1模型对比2.2损失函数对比2.3实现代码对比3.完整代码之前使用线性回归解决的都是**回归(预测)**问题,逻辑斯蒂回归模型可以用来解决另一大问题——分类。注意逻辑斯蒂回归虽然名为回归,但解决的是分类问题,是最简单的分类问题模型,用于解决二分类。1.分
青山的青衫
·
2023-01-10 16:01
#
Pytorch
深度学习
pytorch
回归
PyTorch
深度学习实践
——4.反向传播
PyTorch
深度学习实践
——4.反向传播课程链接:《PyTorch
深度学习实践
》4.反向传播思路:1、先算损失loss2、算反向传播backwardloss.backward():dloss\dw==
皮肤科大白
·
2023-01-10 16:30
pytorch
python
深度学习
pytorch
python
《Pytorch
深度学习实践
》反向传播课程代码
importtorchimportnumpyasnpimportmatplotlib.pyplotaspltx_data=[1.0,2.0,3.0]y_data=[2.0,4.0,6.0]w=torch.Tensor([0.0])w.requires_grad=True#是否需要计算梯度=truedefforward(x):returnx*wdefloss(x,y):#创建一个计算图y_pred=
相心木
·
2023-01-10 16:30
pytorch
深度学习
机器学习
PyTorch
深度学习实践
第5讲 用PyTorch实现线性回归
importtorchx_data=torch.tensor([[1.0],[2.0],[3.0]])y_data=torch.tensor([[2.0],[4.0],[6.0]])classLinearModel(torch.nn.Module):def__init__(self):super(LinearModel,self).__init__()#(1,1)是指输入x和输出y的特征维度,这里
Grairain
·
2023-01-10 16:00
PyTorch
深度学习实践
深度学习
pytorch
线性回归
Pytorch
深度学习实践
Lecture_4 Back Propagation
up主刘二大人视频链接刘二大人的个人空间_哔哩哔哩_Bilibili反向传播可以通过链式法则,使得梯度在计算图中进行反向传播在Pytorch中,Tensor对象包含data和grad两个属性 data:用于存放tensor,是数据本体。 grad:存放data的梯度值(默认不计算梯度)在Pytorch中,Tensor之间的计算即为动态生成计算图(谨记)importtorchimportmatp
endeavor`
·
2023-01-10 16:58
Pytorch深度学习实践
pytorch
【PyTorch
深度学习实践
】深度学习之反向传播,用PyTorch实现线性回归和Logistic回归
文章目录前言一、反向传播二、用PyTorch实现线性回归三、Logistic回归总结前言继上一节讲的线性模型和梯度下降法后,本节将在此基础上讲解反向传播,用PyTorch实现线性回归和Logistics回归一、反向传播误差反向传播法(Back-propagation,BP)会计算神经网络中损失函数对各参数的梯度,配合优化方法更新参数,降低损失函数。BP本来只指损失函数对参数的梯度通过网络反向流动的
今天又干了些什么呢
·
2023-01-10 16:25
深度学习
回归
pytorch
线性回归
Pytorch
深度学习实践
-反向传播
反向传播原理学习内容来自刘二大人
深度学习实践
课程https://b23.tv/ELo6f7以及博客https://www.cnblogs.com/charlotte77/p/5629865.html下面是反向传播代码实现二次模型
L_Moonshine
·
2023-01-10 16:54
机器学习知识总结
python
机器学习
PyTorch
深度学习实践
05用pytorch实现线性回归 __call__ 和forward函数
PyTorch
深度学习实践
05用pytorch实现线性回归call和forward函数__call__先上结论:model(x_data)到底是怎么调用的:相当于model(x_data)实际上调用的是
念旧人丶
·
2023-01-10 16:53
深度学习
pytorch
深度学习
线性回归
PyTorch
深度学习实践
——4.反向传播&作业
课程链接:《PyTorch
深度学习实践
》4.反向传播思路:1、先算损失loss2、算反向传播backwardloss.backward():dloss\dw==w.grad(Tensor)3、更新权重ww.data
青芒小智
·
2023-01-10 16:22
深度学习
PyTorch
深度学习
python
PyTorch
深度学习实践
——用pytorch实现线性回归
参考资料参考资料1:https://blog.csdn.net/bit452/article/details/109677086参考资料2:http://biranda.top/Pytorch%E5%AD%A6%E4%B9%A0%E7%AC%94%E8%AE%B0005%E2%80%94%E2%80%94%E5%8F%8D%E5%90%91%E4%BC%A0%E6%92%AD%E7%AE%97%E
没有人会真的躺平
·
2023-01-10 16:52
PyTorch
深度学习实践
深度学习
pytorch
pytorch
深度学习实践
4——反向传播
利用pytorch实现反向传播,简单代码#-*-coding:utf-8-*-"""SpyderEditorThisisatemporaryscriptfile."""importtorchx_data=[1.0,2.0,3.0]y_data=[2.0,4.0,6.0]w=torch.Tensor([1.0])w.requires_grad=Truedefforward(x):returnx*wd
Hao &
·
2023-01-10 16:49
深度学习笔记
pytorch
深度学习实践
_p5_用pytorch实现线性回归
知识点补充torch.nn.Linear(input_dim,output_dim)input_dim:输入的维度,即特征x的个数output_dim:输出的维度,即输出y的个数torch.nn.MSELoss(size_average=True,reduce=True)size_average:True表示求batch中损失值的平均数;False表示求batch损失值的总和。默认为True。re
L_halley
·
2023-01-10 16:48
python
pytorch
人工智能
机器学习
【PyTorch
深度学习实践
】03_反向传播
文章目录1.计算图2.反向传播2.1链式求导法则2.2反向传播过程3.Pytorch中前馈和反馈的计算3.1Tensor3.2代码演示对于简单的模型,梯度变换可以用解析式表达进行手算,但是复杂模型(很多w,b)的损失函数需要挨个写解析式,非常不好计算(主要是求导)。因此,可以考虑使用某种算法,把整个网络看做一个计算图,在图上传播整个梯度。这种算法,就称为反向传播算法。转载:梯度下降法是通用的优化算
青山的青衫
·
2023-01-10 16:46
#
Pytorch
深度学习
pytorch
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他