E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CS231n深度学习笔记
编程小菜学习之李沐老师动手学
深度学习笔记
-36数据增广
#36图片增广importmatplotlib.pyplotaspltimporttorchimporttorchvisionfromtorchimportnnfromd2limporttorchasd2ld2l.set_figsize()img=d2l.Image.open(r'D:\worksoftware\PycharmProjects\pythonProject\image\dog.png
编程小cai
·
2023-01-18 10:19
深度学习
学习
计算机视觉
深度学习(十四):数据增强Data Augmentation
编程语言:Python参考资料:吴恩达老师的深度学习系列视频吴恩达老师
深度学习笔记
整理深度学习500问唐宇迪深度学习入门视频课程笔记下载:深度学习个人笔记完整版为什么要使用数据增强数据增强,也称数据扩充
打不死的小黑
·
2023-01-18 10:10
深度学习
计算机视觉
深度学习
计算机视觉
数据增强
图像处理
CIFAR-10 SVM方法
importpackageimportnumpyasnpimportpickleimportmatplotlib.pyplotasplt#loadtrainandtestdata#batches_meta=open('F:\PycharmProjects\
cs231n
sakurasakura1996
·
2023-01-18 09:32
SVM
CIFAR-10
【学习周报】
深度学习笔记
第二周
学习目标:吴恩达深度学习课程week2学习内容:梯度下降法(GradientDescent)计算图(ComputationGraph)逻辑回归中的梯度下降(LogisticRegressionGradientDescent)向量化(Vectorization)Python中的广播(BroadcastinginPython)学习时间:10.3-10.9学习产出:1.梯度下降法(GradientDes
不要卷我啊
·
2023-01-18 08:54
学习
深度学习笔记
-第三周
title:
深度学习笔记
-第三周date:2022-12-1420:54:30【3.1神经网络概况】x代表输入特征,参数W和b,上标[]表示层数。
?ZERO?
·
2023-01-18 07:18
深度学习笔记
深度学习
人工智能
动手学
深度学习笔记
day5
多层感知机1、模型输出并不是和每一个特征都是线性相关的,在特征之间的右复杂的相关交互作用。2、每一层都输出到上面的层,直到生成最后的输出。我们可以把前L−1层看作表示,把最后一层看作线性预测器。这种架构通常称为多层感知机(multilayerperceptron),通常缩写为MLP。多层感知机中的层数为隐藏层和输出层。(不包含输入层)。没有加激活函数的话,仿射函数的仿射函数本身就是仿射函数,我们没
努力学习的廖同学
·
2023-01-17 22:34
深度学习
动手学
深度学习笔记
day6
前向传播前向传播(forwardpropagation或forwardpass)指的是:按顺序(从输入层到输出层)计算和存储神经网络中每层的结果。反向传播反向传播(backwardpropagation或backpropagation)指的是计算神经网络参数梯度的方法。简言之,该方法根据微积分中的链式规则,按相反的顺序从输出层到输入层遍历网络。该算法存储了计算某些参数梯度时所需的任何中间变量(偏导
努力学习的廖同学
·
2023-01-17 22:34
深度学习
神经网络
动手学
深度学习笔记
day8
层和块块由类(class)表示。它的任何子类都必须定义一个将其输入转换为输出的前向传播函数,并且必须存储任何必需的参数。每个块必须提供的基本功能:将输入数据作为其前向传播函数的参数。通过前向传播函数来生成输出。请注意,输出的形状可能与输入的形状不同。例如,我们上面模型中的第一个全连接的层接收一个20维的输入,但是返回一个维度为256的输出。计算其输出关于输入的梯度,可通过其反向传播函数进行访问。通
努力学习的廖同学
·
2023-01-17 22:34
深度学习
神经网络
动手学
深度学习笔记
day11
图像增广图像增广在对训练图像进行一系列的随机变化之后,生成相似但不同的训练样本,从而扩大了训练集的规模。此外,应用图像增广的原因是,随机改变训练样本可以减少模型对某些属性的依赖,从而提高模型的泛化能力。常用的图像增广方法使用下面这个图像作为示例。定义辅助函数apply。此函数在输入图像img上多次运行图像增广方法aug并显示所有结果。%matplotlibinlineimporttorchimpo
努力学习的廖同学
·
2023-01-17 22:34
深度学习
计算机视觉
动手学
深度学习笔记
day2
动手学
深度学习笔记
day2数据预处理读取数据集1、创建一个人工数据集,并存储在CSV(逗号分隔值)文件…/data/house_tiny.csv中。
努力学习的廖同学
·
2023-01-17 22:04
深度学习
动手学
深度学习笔记
day7
实战:预测房价预测价格的对数与真实标签价格的对数之间出现以下均方根误差:1、调用库函数importhashlibimportosimporttarfileimportzipfileimportrequests#如果你没有安装pandas,请取消下一行的注释#!pipinstallpandas%matplotlibinlineimportnumpyasnpimportpandasaspdimport
努力学习的廖同学
·
2023-01-17 22:04
深度学习
目标检测基础:好文推荐
☆☆☆☆☆重度好文推荐☆☆☆☆☆
深度学习笔记
(六)--VGG16网络https://blog.csdn.net/qq_29893385/article/details/81207082目标检测之R-CNN
DLANDML
·
2023-01-17 13:36
深度学习
目标检测
基础知识
1-吴恩达机器学习Deeplearning.ai课程,监督学习
(强推|双字)2022吴恩达机器学习Deeplearning.ai课程【公开课】最新斯坦福李飞飞
cs231n
计算机视觉课程【附中文字幕】AI应用搜索引擎社交图片分享,分类电影推荐语音识别垃圾邮件识别气候变化优化风力发电医疗诊断工业质检自动驾驶通用
愚昧之山绝望之谷开悟之坡
·
2023-01-16 17:33
AI-快车道
人工智能
机器学习
计算机视觉
CS231n
笔记二:损失函数和优化介绍
一、损失函数和优化损失函数的定义把参数矩阵W当作输入,看一下预测结果与GT的差距,然后定量的评估W的好坏的函数,称为损失函数(lossfunction)。优化的定义在W的可行域中找到最优W的取值的一种有效方法。损失函数的公式化定义在一个数据集中,通常包括若干的x和y。其中x指的是输入数据data,在图像分类问题中即为图片每个像素点所构成的数据集;y指的是标签label或者目标target,即GT,
兮兮Cici_Melon
·
2023-01-16 12:48
计算机视觉CS231n
机器学习
python
计算机视觉
深度学习
CS231n
:作业1——softmax
前言详细代码见github问答总结在创建softmax标签是,我门需要构造one-hot向量,如何使用切片索引快速构造?文章目录一、实验目标二、数据集三、实验方法1、损失函数2、梯度更新3、加入正则项三、代码:四、实验五、参考资料一、实验目标使用cifar-10数据集实现softmax损失分类器,推导梯度更新公式,使用随机梯度下算法更新梯度。二、数据集数据集依然使用cifar-10,加载方法见此三
无聊的人生事无聊
·
2023-01-16 12:15
信息科学
cs231n
【
cs231n
】损失函数SVM、softmax及梯度下降优化
本专栏的文章是我学习斯坦福
cs231n
课程的笔记和理解,同时也欢迎大家可以访问我的个人博客,查看本篇文章文章目录损失函数支持向量机SVM正则化常用的正则化函数多项逻辑斯蒂回归(softmax)优化梯度下降计算梯度数值梯度解析梯度梯度下降过程小批量随机下降参考资料损失函数如何确定
zhaoylai
·
2023-01-16 12:44
cs231n
支持向量机
机器学习
人工智能
神经网络与
深度学习笔记
(五)validation_data 的作用
**为何要用validation_data而不是test_data来防止过度拟合?为何要用validation_data而不是test_data来设置更好的超参数?**如果我们设置超参数是基于test_data的话,可能我们最终就会得到过度拟合于test_data的超参数,但是网络性能并不能够泛化到其他数据集合。我们用validation_data来克服这个问题,一旦获得了理想的超参数,就用tes
dsjdjsa
·
2023-01-16 11:37
神经网络和深度学习
深度学习
神经网络
深度学习笔记
5:Softmax 回归 + 损失函数 + 图片分类数据集
Softmax回归回归vs分类回归估计一个连续值分类预测一个离散类别应用:Kaggle上的分类问题将人类蛋白质显微镜图片分成28类将恶意软件分成9个类别将恶意的Wikipedia评论分成7类从回归到多类分类回归单连续数值输出自然区间ℝ跟真实值的区别作为损失分类通常多个输出输出i是预测为第i类的置信度(置信度=可信度)从回归到多类分类——均方损失对类别进行一位有效编码使用均方损失训练最大值最为预测从
燏羡
·
2023-01-16 09:02
深度学习(pytorch)笔记
深度学习
回归
分类
深度学习笔记
—— Softmax回归 + 损失函数 + 图片分类数据集
优点:梯度永远是常数,会带来稳定性上的好处。缺点:零点处不可导,此处梯度剧烈变化,这种不平滑性导致在预测值与真实值相差比较小的时候变得不太稳定。也可以自己提出损失函数。因此,分析损失函数时,可从其梯度函数的图像入手,分析当预测值与真实值相差较大或者较小时,进行更新会是怎样的情况。importtorchimporttorchvisionfromtorch.utilsimportdatafromtor
Whisper_yl
·
2023-01-16 09:26
#
深度学习
深度学习
回归
分类
深度学习笔记
---在计算图思想下实现简单神经网络的各个计算层
#1.导入在上篇博客中,例子z=(x+y)^2的计算层就是两个节点。二层神经网络利用计算图的思想可以按照如下简单表示上图中的黑色框均表示计算层,Affine表示加权和层,ReLU表示ReLU激活函数层,SoftmaxWithLoss表示Softmax激活函数和Loss损失函数的组合层。#2.用Python实现各个计算层1.Affine层的实现求加权和的过程就是X*W+B。(X表示数据矩阵,W表示权
武松111
·
2023-01-16 08:22
python与深度学习
深度学习笔记
---误差反向传播法版 对MNIST数据集的二层神经网络的学习实现
#1.神经网络的学习前提和步骤前提神经网络存在合适的权重和偏置。步骤一(挑选mini-batch)从训练数据中随机选出一部分数据,这部分数据称为mini-batch。我们的目标是减少mini-batch这部分数据的损失函数的值。步骤二(计算梯度)为了减小mini-batch这部分数据的损失函数的值,需要求出有关各个权重参数的梯度。步骤三(更新参数)将权重参数沿梯度方向进行微小更新。步骤四(重复)重
武松111
·
2023-01-16 08:22
python与深度学习
深度学习笔记
(十)—— 梯度检验[Gradient Checks]
这是
深度学习笔记
第十篇,完整的笔记目录可以点击这里查看。
zeeq_
·
2023-01-16 06:34
CS231n课程笔记
深度学习
神经网络
机器学习
人工智能
神经网络与
深度学习笔记
——梯度消失问题
神经网络与
深度学习笔记
系列一共有五个专题,分别是第一章使用神经网络识别手写数字——梯度下降算法是什么。主要介绍了神经网络的基础例如感知器激活函数等概念,最主要介绍了梯度下降算法。
刘爱然
·
2023-01-16 06:04
神经网络与机器学习笔记
神经网络
深度学习
人工智能
机器学习
深度学习笔记
——梯度消失和梯度爆炸及解决方法
梯度消失:反向传播时随着网络加深梯度逐渐消失,最后导致参数不更新。原因:如果使用sigmoid作为激活函数,反向传播时输出对某一层参数的梯度是后面层的参数和后面层的激活函数的导数相乘(而sigmoid函数的梯度是sigmoid(1-sigmoid)),又因为sigmoid函数在(0,1)之间,所以随着网络加深,梯度越来越小接近于零,实际上sigmoid函数的梯度小于0.25。解决方法:换用激活函数
phily123
·
2023-01-16 06:30
深度学习学习笔记
深度学习
pytorch
人工智能
深度学习笔记
第一门课第四周:深层神经网络
本文是吴恩达老师的深度学习课程[1]笔记部分。作者:黄海广[2]主要编写人员:黄海广、林兴木(第四所有底稿,第五课第一二周,第三周前三节)、祝彦森:(第三课所有底稿)、贺志尧(第五课第三周底稿)、王翔、胡瀚文、余笑、郑浩、李怀松、朱越鹏、陈伟贺、曹越、路皓翔、邱牧宸、唐天泽、张浩、陈志豪、游忍、泽霖、沈伟臣、贾红顺、时超、陈哲、赵一帆、胡潇杨、段希、于冲、张鑫倩参与编辑人员:黄海广、陈康凯、石晴路
湾区人工智能
·
2023-01-16 06:58
我有一个计划001之数据挖掘面试(更新ing)
2.吴恩达的深度学习的基础知识过一遍
深度学习笔记
,公式手推3.李航《统计学习》方法挑面经中的重点手推公式,有时间全都看4.牛客网的面经将下载的面经都打印,然后针对每个题学习知识点
weixin_34410662
·
2023-01-15 11:55
面试
数据结构与算法
深度学习笔记
---激活函数介绍(从感知机到神经网络)
#1.导入感知机的数学式可以如下表示:上述h(x)函数会将输入信号的总和转换为输出信号。这就是一种激活函数。激活函数的作用在于决定如何来激活输入信号的总和。上述激活函数h(x)被称为阶跃函数,输出的切换是很剧烈的很突然的。如果将激活函数从阶跃函数换成其他平滑变化的函数,就进入神经网络范畴了。#2.sigmoid函数简介及其实现神经网络中经常使用的一个激活函数就是如下所示的sigmoid函数。神经网
武松111
·
2023-01-14 20:44
python与深度学习
【
cs231n
Lesson6】Data Preprocessing & Weight Initialization
个人学习笔记date:2023.1.12参考:https://www.bilibili.com/video/BV1r94y1Q7eG/?spm_id_from=333.788&vd_source=9e9b4b6471a6e98c3e756ce7f41eb134DataPreprocessing一、零中心化\color{purple}一、零中心化一、零中心化X-=np.mean(X,axis=0)这
我什么都不懂zvz
·
2023-01-14 12:48
cs231n
概率论
python
【
cs231n
Lesson6】Batch Normalization批量归一化
个人学习笔记date:2023.01.13本次没有完全听
cs231n
,听的云里雾里,本身也不是很喜欢教学的内容形式,但是斯坦佛大佬们每一次提问都很有深度。
我什么都不懂zvz
·
2023-01-14 12:48
cs231n
batch
深度学习
【
cs231n
Lesson6】 Babysitting the learning process, Hyperparameter Optimization
2023.01.14调参侠初成长记训练数据监视一、数据预处理将数据零均值化二、选取网络结构选取适合的网络结构,进行forwardpass,将正则项设为0,如果是常用的损失函数比如softmaxclassifier,那么初始的损失应该为−log(1C)-log(\frac{1}{C})−log(C1)。然后假如正则项,此时损失应该增大,因为正则化就是惩罚数据模型复杂度。三、训练从很小的训练集开始因为
我什么都不懂zvz
·
2023-01-14 12:48
cs231n
人工智能
深度学习
吴恩达
深度学习笔记
(一)week4 深层神经网络
深层神经网络1.逻辑回归,结构如下图左边。一个隐藏层的神经网络,结构下图右边:神经网络的层数是这么定义的:从左到右,由0开始定义,比如上边右图,x1、x2、x3、严格上来说逻辑回归也是一个一层的神经网络,而上边右图一个深得多的模型,浅与深仅仅是指一种程度。有一个隐藏层的神经网络,就是一个两层神经网络。记住当我们算神经网络的层数时,我们不算输入层,我们只算隐藏层和输出层。上图是一个四层的神经网络,有
uponwyz
·
2023-01-14 07:34
神经网络
吴恩达
深度学习笔记
4-Course1-Week4【深层神经网络】
深层神经网络(DNN):一、深层神经网络4层的神经网络:二、前向与反向传播前向(forwardpropagation):反向(backwardpropagation):notation:n[l]:第l层的unit个数W[l]:(n[l],n[l−1])b[l]:(n[l],1)dW[l]:(n[l],n[l−1])db[l]:(n[l],1)singleexample:x:(n[0],1)z[l]
Wang_Jiankun
·
2023-01-14 07:01
吴恩达深度学习
吴恩达深度学习笔记
深度学习
吴恩达
吴恩达深度学习1笔记week4——深层神经网络 Deep L-layer Neural Network
吴恩达
深度学习笔记
week4——深层神经网络DeepL-layerNeuralNetwork4.1深层神经网络DeepL-layerNeuralNetwork4.2深层网络中的前向传播ForwardPropagationinaDeepNetwork4.3
Saulty
·
2023-01-14 07:30
深度学习
深度学习笔记
8 特征尺寸、感受野、Map计算
目录1.FeatureMap尺寸计算2.感受野计算3.感受野大小对提取特征的影响4.Map计算4.1IOU计算4.2TPTNFPFN4.3Precision和Recall4.4目标检测常用评价指标总结1.FeatureMap尺寸计算注意在pytorch中stride、padding、dilation、kernelsize可以为int型或者tuple型;dilation默认为1,也是可为tuple,
李同学_道阻且行
·
2023-01-13 20:38
深度学习笔记(理论)
深度学习
计算机视觉
人工智能
error: (-209:Sizes of input arguments do not match) The operation is neither ‘array op array‘ (where
imread‘in‘init.py‘error:(-209:Sizesofinputargumentsdonotmatch)Theoperationisneither‘arrayoparray‘(where
cs231n
非妃是公主
·
2023-01-13 11:50
计算机视觉
python
计算机视觉
深度学习
Cannot find reference ‘imread‘ in ‘__init__.py‘
imread‘in‘init.py‘error:(-209:Sizesofinputargumentsdonotmatch)Theoperationisneither‘arrayoparray‘(where
cs231n
非妃是公主
·
2023-01-13 11:20
计算机视觉
python
opencv
开发语言
ModuleNotFoundError: No module named ‘
cs231n
‘
imread‘in‘init.py‘error:(-209:Sizesofinputargumentsdonotmatch)Theoperationisneither‘arrayoparray‘(where
cs231n
非妃是公主
·
2023-01-13 11:20
计算机视觉
计算机视觉
python
colab
cs231n
Assignments1-numpy的使用
imread‘in‘init.py‘error:(-209:Sizesofinputargumentsdonotmatch)Theoperationisneither‘arrayoparray‘(where
cs231n
非妃是公主
·
2023-01-13 11:20
计算机视觉
numpy
python
吴恩达
深度学习笔记
course3 week2 机器学习 策略(2)
1.Carryingouterroranalysis例:当我们在训练一个模型的时候,我们的准确率是90%,bayesoptimizedbias是0%,这个时候错误率达到了10%,那么我们如何分析是哪错了,并且快速改正,如果我们分析发现误将狗识别为猫,那我们是否又应该加入一些狗的图片,增强模型对负样本的训练?这个时候就引入了误差分析分析过程:这里吴恩达老师是取出100张被错误标记的图片,观察其中把狗
weixin_30888707
·
2023-01-12 11:22
人工智能
【学习周报】
深度学习笔记
第四周
学习目标:深度学习吴恩达lesson2-week3:超参数调试、Batch正则化和程序框架(Hyperparametertuning)深度学习吴恩达lesson3-week1:机器学习(ML)策略(1)深度学习吴恩达lesson3-week2:机器学习(ML)策略(2)学习内容:目录学习目标:学习内容:学习时间:学习产出:lesson2-week33.1参数的统计与选择3.2参数合适的取值范围3.
不要卷我啊
·
2023-01-12 11:18
学习
吴恩达
深度学习笔记
(三)week2机器学习策略
进行误差分析以一个简单的例子为例,在做一个猫图片的分类器时,若产生了5%5%的误差,其中有些图片误把狗分类为猫,是不是应该马上决定设计一个针对狗的识别系统?答案是否定的,若错误分类里面只有少数的是狗则不需要,所以有必要对误差进行分析。常用的误差分析是用一个表格做统计,如下图所示,统计每项可能引起系统误差的比例。清楚标记错误的数据吴恩达:人工干预,对误差进行分析,加入人对数据的理解在构建实际机器学习
lwmiracle
·
2023-01-12 11:16
吴恩达深度学习笔记
深度学习
机器学习
吴恩达
深度学习笔记
course3 week2 测验
第1个问题Tohelpyoupracticestrategiesformachinelearning,inthisweekwe’llpresentanotherscenarioandaskhowyouwouldact.Wethinkthis“simulator”ofworkinginamachinelearningprojectwillgiveataskofwhatleadingamachinel
banghu8816
·
2023-01-12 11:13
人工智能
开发工具
吴恩达
深度学习笔记
9-Course3-Week2【机器学习策略(ML Strategy)2】
机器学习策略(MLStrategy)2一、误差分析(ErrorAnalysis)1、进行误差分析(Carryingouterroranalysis)当训练完模型后,可以得到该模型的误差。接着我们要不断的对模型进行优化,减少误差。误差分析就是为了指导模型往能最大化减少误差的方向调整。误差分析就是对由不同错误分类类型引起的错误占总错误的比例进行排序,优先优化占比高的错误类型。以识别猫为例,预测失败可能
Wang_Jiankun
·
2023-01-12 11:42
吴恩达深度学习
吴恩达深度学习笔记
深度学习
神经网络
吴恩达
深度学习笔记
3 梯度消失和梯度爆炸
目录1.产生原因1.1概念1.2产生原因2.解决方案2.1预训练(适用梯度消失/爆炸)2.2度剪切:对梯度设定阈值(适用梯度爆炸)2.3权重正则化(适用梯度爆炸)2.4选择relu等梯度大部分落在常数上的激活函数(适用梯度消失/爆炸)2.5批归一化(适用梯度消失/爆炸)2.6残差结构(适用梯度消失)1.产生原因1.1概念梯度消失:梯度趋近于零,网络权重无法更新或更新的很微小,网络训练再久也不会有效
李同学_道阻且行
·
2023-01-11 06:15
深度学习笔记(理论)
深度学习
人工智能
python
水很深的
深度学习笔记
—————循环神经网络RNN篇
目录计算图RNN计算图的引入为了更方便表示网络现实生活存在很多序列化结构,需要建立更优秀的序列数据模型文本、语音、视频、时态数据RNNRNN一般结构x_t表示T时刻的输入,s_T表示记忆,O_t表示输出,UVW是RNN网络的连接权重,b_s和b_o是RNN的偏置,LSTM(长短时记忆网络)一个LSTM单元由输入门、输出门、遗忘门组成,三个门控制信息进出单元遗忘门对细胞状态信息遗忘程度的控制,输出当
data小孙
·
2023-01-11 06:44
深度学习
概率论
机器学习
吴恩达
深度学习笔记
(六)——超参数调试、Batch正则化和程序框架
一、调试处理给超参数取值:网格中取样点,随机取值,由粗糙到精细的策略。为超参数选择合适的范围:随机取值不是在有效范围内随即均匀取值,选择合适的步进值很重要。比如搜索学习率α,在0.0001到1之间,如果随机均匀取值,则在0.1到1之间应用了90%的资源,在0.0001到0.1之间只有10%的搜索资源。因此,不使用线性轴,而使用对数轴会更加合理。β越接近于1越敏感,需要密集取值。超参数调试实践:照看
子非鱼icon
·
2023-01-10 19:06
深度学习自学笔记
深度学习
人工智能
deep
learning
吴恩达
神经网络
吴恩达
深度学习笔记
(第二周编程作业)
在吴恩达老师的深度学习中的assignment_2_2中实现logisticRegression需要将图片转化成训练集时需要将维度为(209,64,64,3)的图片矩阵转化成二维矩阵(64*64*3,209)的训练集时错误方法:直接使用reshape(64*64*3,209)正确方法:使用reshape(209,-1).T原因:错误方法不能变成我们需要的n*m的矩阵,我们需要保持每列是一个单独的样
ncisiad
·
2023-01-10 18:58
吴恩达深度学习笔记
逻辑回归
python
cs231n
——浅析三种生成模型
文章目录一、有监督学习和无监督学习有监督学习无监督学习二者对比二、生成模型什么是生成模型?为什么需要生成模型?生成模型的分类三、PixelRNN/CNNPixelRNNPixelCNN总结四、变分自编码器自编码器变分自编码器五、生成对抗网络(GANs)GAN总结总结一、有监督学习和无监督学习有监督学习有监督学习在前面的学习中已经接触了一些,在这种模式下,我们拥有数据data和数据对应的标签labe
yizhi_hao
·
2023-01-10 18:49
深度学习
深度学习
PyTorch
深度学习笔记
(六)Dataset类代码实战
课程学习笔记,课程链接#常用的一些工具,torch大工具箱中的常用工具区,然后是关于数据的data区fromtorch.utils.dataimportDatasetfromPILimportImage#使用该方法来读取图片importos#python中关于系统的库'''Dataset是一个抽象类,所有的数据集都需要去继承这个类所有的子类都应该重写__gititem__方法,该方法主要是获取每个
小于同学饿了
·
2023-01-10 12:30
PyTorch
pytorch
深度学习
python
【深度学习】点云
深度学习笔记
(目标检测)
Second环境的配置参考参考:second.pytorch环境配置及训练运行折腾史_华青水上的博客-CSDN博客遇到的错误1、执行pythoncreate_data.pykitti_data_prep--root_path=data/KITTI_DATASET_ROOT遇到了错误NvvmSupportError:libNVVMcannotbefound.Docondainstallcudatoo
秦乐乐
·
2023-01-10 09:48
深度学习
深度学习
目标检测
python
上一页
6
7
8
9
10
11
12
13
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他