E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
J2EE学习实践
新IT民工社区,新技术,新方法,新观点
主题排行1713IT资讯1063业界市场770行业分析562J2SE515C/C++450Oracle388网站运营377职业生涯313Python296情感生活255MQ222DB2213MySQL201
J2EE
超级总工程师
·
2023-01-16 09:13
OTHER
websphere
soa
workflow
perl
shell
数据库
《PyTorch深度
学习实践
》P10卷积神经网络基础篇CNN
全部代码在最后面。基本模式:patch:单通道,卷积做数乘:先数乘再加:每一个卷积核通道数量和输入通道数量一样!卷积核总数量和输出通道数量一样!卷积核数量和图片大小没关想得到和原来一样的维度,padding怎么计算加外围多少层:(如图所示)例子:code:在这里importtorchinput=[3,4,6,5,7,2,4,6,8,2,1,6,7,8,4,9,7,4,6,2,3,7,5,4,1]#
XD101DX
·
2023-01-16 06:36
pytorch
pytorch
深度学习
cnn
【PyTorch深度
学习实践
】06_多维特征输入(以逻辑斯蒂回归为例)
文章目录1.多维数据2.多维数据在逻辑回归中的计算过程3.代码改变及其含义4.完整代码1.多维数据每一行为一个样本(sample),数据库里一行称为一个Record。每一列为一个特征(feature),数据库里叫字段。2.多维数据在逻辑回归中的计算过程偏置(bias)——b,通过广播机制变成向量与前面的矩阵进行运算。3.代码改变及其含义训练过程4.完整代码importnumpyasnpimport
青山的青衫
·
2023-01-16 06:06
#
Pytorch
深度学习
pytorch
回归
【PyTorch深度
学习实践
】07_Dataset和Dataloader
文章目录1.Epoch,Iteration,Batch-Size2.Dataset和Dataloader2.1Dataset2.2Dataloader2.2.1例子2.2.2enumerate函数3.完整代码1.Epoch,Iteration,Batch-Size参考博客2.Dataset和Dataloader参考博客功能概览2.1Datasettorch.utils.data.Dataset是一
青山的青衫
·
2023-01-16 06:06
#
Pytorch
深度学习
pytorch
python
【PyTorch深度
学习实践
】08_Softmax分类器(多分类)
文章目录1.Softmax层1.1softmax的函数表示1.2损失函数2.代码实现1.Softmax层当需要多分类的时候,会输出一个分布,这些分布需要满足P(y=i)>=0和所有的P值加起来=1,使用softmax可以实现。要注意的是,softmax本质上和sigmoid一样也是一个激活函数。sigmoid用于二分类,softmax用于多分类。1.1softmax的函数表示示例1.2损失函数关于
青山的青衫
·
2023-01-16 06:06
#
Pytorch
深度学习
pytorch
分类
PyTorch 深度
学习实践
第10讲 卷积神经网络(基础篇)
CPUimporttorchfromtorchvisionimporttransformsfromtorchvisionimportdatasetsfromtorch.utils.dataimportDataLoaderimporttorch.nn.functionalasFbatch_size=64transform=transforms.Compose([transforms.ToTensor
Grairain
·
2023-01-16 06:04
PyTorch
深度学习实践
深度学习
pytorch
cnn
PyTorch 深度
学习实践
第十讲 ---卷积神经网络基础篇
Demo10:卷积神经网络基础篇来源:B站刘二大人说明卷积神经网络前一部分叫做特征提取(FeatureExtraction),后一部分叫做分类(classification)一个卷积核它的通道数量要求和输入通道是一样的。这种卷积核的总数有多少个和你输出通道的数量是一样的。卷积(convolution)后,C(Channels)变,W(width)和H(Height)可变可不变,取决于是否paddi
Vinsada
·
2023-01-16 06:34
Pytorch框架实践
深度学习
pytorch
cnn
PyTorch深度
学习实践
10——卷积神经网络基础
卷积过程示意图:卷积核的数量要和输入的通道数(Channel数)相等N个输入channel,1个输出channel:N个输入channel,M个输出channel:构造一层卷积层(4维张量)需要四个维度:输入大小,输出大小,卷积核W,卷积核H构造卷积层实例代码:importtorchin_channels,out_channels=5,10width,height=100,100kernel_si
UnFledged
·
2023-01-16 06:02
PyTorch深度学习实践
深度学习
pytorch
cnn
Pytorch深度学习(七):卷积神经网络(基础篇)
Pytorch深度学习(七):卷积神经网络(CNN)(基础篇)参考B站课程:《PyTorch深度
学习实践
》完结合集传送门:《PyTorch深度
学习实践
》完结合集卷积神经网络是一种带有卷积结构的深度神经网络
Yuriy_Xiong
·
2023-01-16 06:01
Pytorch深度学习
深度学习
pytorch
cnn
PyTorch深度
学习实践
-P10卷积神经网络
代码部分参考了csdn上别的博主,经测试可以跑成功复习:上一节的全连接神经网络任意两个节点之间都有权重全连接层处理图片时丢失了部分空间信息,因为为它把输入直接连成了一长串,但没有考虑他们在图片中的位置处理图像时常用的二维卷积神经网络:考虑输入输出维度,做空间变换工作方式:输入图像1*28*28的张量c*w*h卷积层:保留图像的空间特征featuremaps:卷积之后,依然是三维张量,得到了4*24
m0_60673782
·
2023-01-16 06:30
pytorch
深度学习
cnn
PyTorch深度
学习实践
——梯度下降
学习总结:这一课在B站上学习了梯度下降,对于其中认识总结如下:在初入深度学习坑时,我们经常会听到一个词语叫”梯度下降算法“,老实说,在没有学习这一章节我也对此毫无头绪,在学习玩之后,对此有了以下总结:对于一个问题而言,我们总可以提出三个问题:是什么?为什么?以及怎么样?对于梯度下降也是同样,以下总结从三个方面来解释:梯度下降是什么?简单来说就是一种寻找目标函数最小化的方法,它利用梯度信息,通过不断
不见当年灰太狼
·
2023-01-16 06:00
pytorch深度学习
pytorch
机器学习
深度学习
神经网络
PyTorch深度
学习实践
——卷积神经网络
importtorchfromtorchvisionimporttransformsfromtorchvisionimportdatasetsfromtorch.utils.dataimportDataLoaderimporttorch.nn.functionalasFimporttorch.optimasoptimimporttorchvisionimportmatplotlib.pyplota
不见当年灰太狼
·
2023-01-16 06:00
pytorch深度学习
pytorch
神经网络
深度学习
《PyTorch深度
学习实践
》Lecture_10 卷积神经网络基础 CNN
B站刘二大人老师的《PyTorch深度
学习实践
》Lecture_10重点回顾+代码复现Lecture_10卷积神经网络ConvolutionalNeuralNetwork一、重点回顾——卷积神经网络的结构
木夕敢敢
·
2023-01-16 06:59
PyTorch深度学习
深度学习
卷积神经网络
pytorch
【PyTorch深度
学习实践
】09_卷积神经网络基础
文章目录1.卷积操作1.1卷积操作1.2padding-填充1.3stride-步长1.4pooling-池化1.5基础版CNN代码示例1.6完整CNN代码示例1.卷积操作卷积神经网络概览1.1卷积操作输入通道数=卷积核通道数,卷积核个数=输出通道数1.2padding-填充padding是为了让源图像最外一圈或多圈像素(取决于kernel的尺寸),能够被卷积核中心取到。这里有个描述很重要:想要使
青山的青衫
·
2023-01-16 06:28
#
Pytorch
深度学习
cnn
pytorch
pytorch深度
学习实践
_p10_CNN卷积神经网络实现数字辨识
完整代码importtorchfromtorchvisionimporttransformsfromtorchvisionimportdatasetsfromtorch.utils.dataimportDataLoaderimporttorch.nn.functionalasFimporttorch.optimasoptim#1、准备数据集batch_size=64transform=transf
L_halley
·
2023-01-16 06:28
pytorch深度学习实践
神经网络
卷积
mmsegmentation框架SegFormer训练自己的数据集
主要为记录自己
学习实践
mmsegmentation框架的过程,并顺便为一起学习的同学们提供参考,分享一下自己学习到的一些知识和所踩的坑,与大家共勉!
drunk_flowers
·
2023-01-15 08:29
深度学习实践
人工智能
深度学习
神经网络
算法
目标检测
基于美团技术团队最新开源的yolov6模型实现裸土检测
不断迭代不断创新升级的系列,从v1演变到现在的v6是很多技术大佬的不懈努力的结果,最近美团技术团队开源了他们最新的研究成果yolov6,在介绍中提到做了很多的升级改造,最近也在关注这个,上周末的时候有时间就
学习实践
了一下
Together_CZ
·
2023-01-14 18:56
目标检测实战
大数据
NLP预训练模型小型化与部署的那些事儿
文本问答、结构化数据问答、文本翻译、机器同传、对话系统等实践项目的全流程讲解,旨在帮助开发者更全面清晰地掌握百度飞桨框架在NLP领域的用法,并能够举一反三、灵活使用飞桨框架和PaddleNLP进行NLP深度
学习实践
飞桨PaddlePaddle
·
2023-01-14 09:16
人工智能
深度学习
神经网络
自然语言处理
机器学习
ORB_SLAM2在ros仿真环境中运行
ORB_SLAM2在仿真环境中运行在学古月居教程时,学到仿真这一块,在想能不能把orb_slam2顺便实现一下,经过
学习实践
结果如下。。。
英雄小摔哥
·
2023-01-13 09:28
ros
slam
pytorch实战(正在更新)
本文参照多个视频,首先见B站刘二大人的《PyTorch深度
学习实践
》完结合集。
Shengkun Wu
·
2023-01-13 09:12
pytorch
人工智能
python
《PyTorch深度
学习实践
》课上代码笔记 三
自学笔记课程老师:刘二大人河北工业大学教师https://liuii.github.io课程来源:https://www.bilibili.com/video/BV1Y7411d7Ys推荐一个服务器租赁的平台相比于阿里腾讯等平台,亲测性价比要高,显卡有1080Ti、2080Ti、3080Ti等,运行速度自然比自己的笔记本快,也能保护自己心爱的笔记本,实例中有JupyterNotebook、Visu
Zhanglw882
·
2023-01-12 16:16
pytorch课程代码笔记
深度学习
pytorch
神经网络
机器学习
卷积神经网络
《PyTorch深度
学习实践
》刘二大人 第4讲 反向传播
课堂代码importtorchx_data=[1.0,2.0,3.0]y_data=[2.0,4.0,6.0]w=torch.tensor([1.0])w.requires_grad=Truedefforward(x):returnw*xdefloss(x,y):y_pred=forward(x)return(y_pred-y)**2forepochinrange(100):forx,yinzip
Grairain
·
2023-01-12 11:54
PyTorch
深度学习实践
深度学习
pytorch
人工智能
B站刘二大人-反向传播Lecture4
系列文章:《PyTorch深度
学习实践
》完结合集-B站刘二大人Pytorch代码注意的细节,容易敲错的地方B站刘二大人-线性回归及梯度下降Lecture3B站刘二大人-反向传播Lecture4B站刘二大人
宁然也
·
2023-01-12 11:23
PyTorch使用
python
机器学习
深度学习
刘二大人 《PyTorch深度
学习实践
》第3讲 梯度下降算法
指路☞《PyTorch深度
学习实践
》完结合集_哔哩哔哩_bilibili知识补充:1、预设一个w值,然后算斜率(梯度),如果梯度大于0,我们要往梯度小的方向进行,即减去它,反之一样。
qq_39705798
·
2023-01-12 11:47
pytorch
深度学习
机器学习
刘二大人 《PyTorch深度
学习实践
》第5讲 用Pytorch实现线性回归
指路☞《PyTorch深度
学习实践
》完结合集_哔哩哔哩_bilibili知识补充:1、pytorch神经网络模型2、类后面加括号,表示构造对象;Linear的对象里面包含w和b,将来我们可以直接用Linear
qq_39705798
·
2023-01-12 11:47
pytorch
深度学习
线性回归
刘二大人 《PyTorch深度
学习实践
》第8讲 加载数据集(笔记)
指路☞《PyTorch深度
学习实践
》完结合集_哔哩哔哩_bilibili目录一、知识补充二、课堂代码三、作业一、知识补充1、Dataset和DataLoader是构造数据集的两个类,其中Dataset是构造数据集
qq_39705798
·
2023-01-12 11:47
pytorch
深度学习
人工智能
刘二大人《PyTorch深度
学习实践
》第2讲
指路☞《PyTorch深度
学习实践
》完结合集_哔哩哔哩_bilibili知识补充:1、zip(x_data,y_data)表示将将对象中对应的元素打包成一个个元组,然后返回由这些元组组成的列表。
qq_39705798
·
2023-01-12 11:17
pytorch
深度学习
python
Pytorch深度
学习实践
(b站刘二大人)P4讲(反向传播)
课堂代码:#反向传播课上代码importtorchx_data=[1.0,2.0,3.0]y_data=[2.0,4.0,6.0]w=torch.tensor([1.0])#w的初值为1.0w.requires_grad=True#默认为False,True表示需要计算梯度defforward(x):returnx*w#其中w是tensor,乘法运算符被重载,tensor与tensor的乘法,所以
努力学习的朱朱
·
2023-01-12 11:16
pytorch
深度学习
python
《PyTorch深度
学习实践
》Lecture_04 反向传播 Back Propagation
B站刘二大人老师的《PyTorch深度
学习实践
》Lecture_04重点回顾+手记+代码复现+知识补充Lecture_04反向传播BackPropagation一、重点回顾(一)计算图ComputationalGraph1
木夕敢敢
·
2023-01-12 11:12
PyTorch深度学习
深度学习
机器学习
python
刘二大人 《Pyorch深度
学习实践
》第4讲 反向传播
指路☞《PyTorch深度
学习实践
》完结合集_哔哩哔哩_bilibili知识补充:1、从左到右是前向,从右到左是反向传播*****************************************
qq_39705798
·
2023-01-12 11:39
深度学习
人工智能
JavaSE详细总结——万字纯手码
文章目录概述考点:知识点总结:一、Java发展历史——大概理解二、J2ME,J2SE,
J2EE
三、Java语言的特点四、Java和C++的比较五、辨析JVM、JRE、JDK之间的区别和联系六、Java程序
图南zzz
·
2023-01-12 09:03
后端
java
jar
socket
gui
oop
基于
J2EE
的B2C电子商务系统开发- 新闻发布与系统管理子系统设计与实现
设计(论文)题目:基于
J2EE
的B2C电子商务系统开发-新闻发布与系统管理子系统设计与实现学院、专业学生姓名指导教师姓名下发日期(任务起止日期:20年月日至20年月日)设计(论文)的主要内容与要求:Internet
普通网友
·
2023-01-12 01:06
Android
android
android
studio
java
源码软件
Java面试题(最新最全Java面试题汇总)
Java面试题(最新最全Java面试题汇总)JAVA相关基础知识Java面试题集-Java面试题,
J2EE
面试题集
J2EE
面试题集(附答案)Java常见面试题集–面试题全面综合(一)Java常见面试题集
普通网友
·
2023-01-10 19:18
java
java
面试
jvm
大数据
zookeeper
Spring Boot初学笔记超详细
一、SpringBoot入门该博客md文件下载地址1、SpringBoot简介简化Spring应用开发的一个框架;整个Spring技术栈的一个大整合;
J2EE
开发的一站式解决方案;2、微服务2014,martinfowler
毕业即失业吗
·
2023-01-10 16:53
Spring
Family
Bucket
java
spring
Spring Boot 入门与核心配置(新手)
**一、SpringBoot1、SpringBoot简介简化Spring应用开发的一个框架;整个Spring技术栈的一个大整合;
J2EE
开发的一站式解决方案;能够创建独立的Spring应用本身嵌入了Tomcat
spc-ai
·
2023-01-10 16:52
#
Java后端开发
#
SpringBoot学习
spring
boot
java
后端
【PyTorch深度
学习实践
】05_逻辑斯蒂回归
文章目录1.分类问题相关数据集1.1MINIST1.2CIFAR-102.回归(Regression)VS分类(Classification)2.1模型对比2.2损失函数对比2.3实现代码对比3.完整代码之前使用线性回归解决的都是**回归(预测)**问题,逻辑斯蒂回归模型可以用来解决另一大问题——分类。注意逻辑斯蒂回归虽然名为回归,但解决的是分类问题,是最简单的分类问题模型,用于解决二分类。1.分
青山的青衫
·
2023-01-10 16:01
#
Pytorch
深度学习
pytorch
回归
PyTorch深度
学习实践
——4.反向传播
PyTorch深度
学习实践
——4.反向传播课程链接:《PyTorch深度
学习实践
》4.反向传播思路:1、先算损失loss2、算反向传播backwardloss.backward():dloss\dw==
皮肤科大白
·
2023-01-10 16:30
pytorch
python
深度学习
pytorch
python
《Pytorch深度
学习实践
》反向传播课程代码
importtorchimportnumpyasnpimportmatplotlib.pyplotaspltx_data=[1.0,2.0,3.0]y_data=[2.0,4.0,6.0]w=torch.Tensor([0.0])w.requires_grad=True#是否需要计算梯度=truedefforward(x):returnx*wdefloss(x,y):#创建一个计算图y_pred=
相心木
·
2023-01-10 16:30
pytorch
深度学习
机器学习
PyTorch 深度
学习实践
第5讲 用PyTorch实现线性回归
importtorchx_data=torch.tensor([[1.0],[2.0],[3.0]])y_data=torch.tensor([[2.0],[4.0],[6.0]])classLinearModel(torch.nn.Module):def__init__(self):super(LinearModel,self).__init__()#(1,1)是指输入x和输出y的特征维度,这里
Grairain
·
2023-01-10 16:00
PyTorch
深度学习实践
深度学习
pytorch
线性回归
Pytorch 深度
学习实践
Lecture_4 Back Propagation
up主刘二大人视频链接刘二大人的个人空间_哔哩哔哩_Bilibili反向传播可以通过链式法则,使得梯度在计算图中进行反向传播在Pytorch中,Tensor对象包含data和grad两个属性 data:用于存放tensor,是数据本体。 grad:存放data的梯度值(默认不计算梯度)在Pytorch中,Tensor之间的计算即为动态生成计算图(谨记)importtorchimportmatp
endeavor`
·
2023-01-10 16:58
Pytorch深度学习实践
pytorch
【PyTorch深度
学习实践
】深度学习之反向传播,用PyTorch实现线性回归和Logistic回归
文章目录前言一、反向传播二、用PyTorch实现线性回归三、Logistic回归总结前言继上一节讲的线性模型和梯度下降法后,本节将在此基础上讲解反向传播,用PyTorch实现线性回归和Logistics回归一、反向传播误差反向传播法(Back-propagation,BP)会计算神经网络中损失函数对各参数的梯度,配合优化方法更新参数,降低损失函数。BP本来只指损失函数对参数的梯度通过网络反向流动的
今天又干了些什么呢
·
2023-01-10 16:25
深度学习
回归
pytorch
线性回归
Pytorch深度
学习实践
-反向传播
反向传播原理学习内容来自刘二大人深度
学习实践
课程https://b23.tv/ELo6f7以及博客https://www.cnblogs.com/charlotte77/p/5629865.html下面是反向传播代码实现二次模型
L_Moonshine
·
2023-01-10 16:54
机器学习知识总结
python
机器学习
PyTorch深度
学习实践
05用pytorch实现线性回归 __call__ 和forward函数
PyTorch深度
学习实践
05用pytorch实现线性回归call和forward函数__call__先上结论:model(x_data)到底是怎么调用的:相当于model(x_data)实际上调用的是
念旧人丶
·
2023-01-10 16:53
深度学习
pytorch
深度学习
线性回归
PyTorch深度
学习实践
——4.反向传播&作业
课程链接:《PyTorch深度
学习实践
》4.反向传播思路:1、先算损失loss2、算反向传播backwardloss.backward():dloss\dw==w.grad(Tensor)3、更新权重ww.data
青芒小智
·
2023-01-10 16:22
深度学习
PyTorch
深度学习
python
PyTorch深度
学习实践
——用pytorch实现线性回归
参考资料参考资料1:https://blog.csdn.net/bit452/article/details/109677086参考资料2:http://biranda.top/Pytorch%E5%AD%A6%E4%B9%A0%E7%AC%94%E8%AE%B0005%E2%80%94%E2%80%94%E5%8F%8D%E5%90%91%E4%BC%A0%E6%92%AD%E7%AE%97%E
没有人会真的躺平
·
2023-01-10 16:52
PyTorch
深度学习实践
深度学习
pytorch
pytorch深度
学习实践
4——反向传播
利用pytorch实现反向传播,简单代码#-*-coding:utf-8-*-"""SpyderEditorThisisatemporaryscriptfile."""importtorchx_data=[1.0,2.0,3.0]y_data=[2.0,4.0,6.0]w=torch.Tensor([1.0])w.requires_grad=Truedefforward(x):returnx*wd
Hao &
·
2023-01-10 16:49
深度学习笔记
pytorch深度
学习实践
_p5_用pytorch实现线性回归
知识点补充torch.nn.Linear(input_dim,output_dim)input_dim:输入的维度,即特征x的个数output_dim:输出的维度,即输出y的个数torch.nn.MSELoss(size_average=True,reduce=True)size_average:True表示求batch中损失值的平均数;False表示求batch损失值的总和。默认为True。re
L_halley
·
2023-01-10 16:48
python
pytorch
人工智能
机器学习
【PyTorch深度
学习实践
】03_反向传播
文章目录1.计算图2.反向传播2.1链式求导法则2.2反向传播过程3.Pytorch中前馈和反馈的计算3.1Tensor3.2代码演示对于简单的模型,梯度变换可以用解析式表达进行手算,但是复杂模型(很多w,b)的损失函数需要挨个写解析式,非常不好计算(主要是求导)。因此,可以考虑使用某种算法,把整个网络看做一个计算图,在图上传播整个梯度。这种算法,就称为反向传播算法。转载:梯度下降法是通用的优化算
青山的青衫
·
2023-01-10 16:46
#
Pytorch
深度学习
pytorch
【PyTorch深度
学习实践
】04_用PyTorch实现线性回归
文章目录1.模型训练步骤2.实现过程2.1准备数据集2.2设计模型2.3设计损失函数和优化器2.4训练过程3.完整代码1.模型训练步骤1.准备数据集dataset和dataloader2.设计模型3.构造损失函数和优化器4.训练过程前馈(算损失)、反馈(算梯度)、更新(用梯度下降更新)2.实现过程2.1准备数据集importtorch#x,y这里都是张量x_data=torch.tensor([[
青山的青衫
·
2023-01-10 16:46
#
Pytorch
深度学习
pytorch
线性回归
深度
学习实践
必备工具
下面是自己对深度学习过程中一些工具的知识点的总结,希望能对你有帮助。如果疑问或错误欢迎交流!自己目前的程度也是比较浅的,但是算可以自己远程服务器,改代码,跑实验。搭建好了这些基础环境后,接下来要做的就是多看论文多做实验了!自己只是初探这个领域,接下来的新认识,还会不断更新此文章!目录环境连接工具(基于win10)穿透工具一些小工具(需要可以找我要)一些常用命令Linuxanacoda深度入门书籍视
大海Git
·
2023-01-10 10:46
开发环境
深度学习
上一页
30
31
32
33
34
35
36
37
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他