E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
《动手学深度学习
【李沐-
动手学深度学习
v2】04数据操作+数据预处理
1、数据操作#查看pytorch中的所有函数名或属性名importtorchprint(dir(torch.distributions))print('1.张量的创建')#ones函数创建一个具有指定形状的新张量,并将所有元素值设置为1t=torch.ones(4)print('t:',t)运行结果:x=torch.arange(12)print('x:',x)print('xshape:',x.
杳杳捞到月亮了吗
·
2023-01-17 07:43
深度学习
深度学习
python
pytorch
动手学深度学习
需要的环境遇到的小问题
可能因为我没有按照书上的顺序下载库,导致d2l和mxnet所需的numpy等库的版本矛盾解决如下:先下载好d2lpipinstalld2l==0.17.5GetStarted|ApacheMXNet利用官网下载好mxnetpipinstallmxnet==1.3.1希望可以帮到你
白衣纵马
·
2023-01-16 12:27
深度学习
人工智能
【
动手学深度学习
v2李沐】学习笔记04:Softmax回归、损失函数、图片分类数据集、详细代码实现
前文回顾:线性回归、基础优化算法、线性回归实现文章目录一、Softmax回归1.1多类分类1.1.1回归vs分类1.1.2均方损失1.2校验比例1.3Softmax和交叉熵损失1.4总结二、损失函数2.1均方损失L2Loss2.2绝对值损失L1Loss2.3哈珀鲁棒损失Huber'sRobustLoss三、图片分类数据集3.1获取数据集3.2查看数据集3.3读取小批量数据3.4封装四、Softma
鱼儿听雨眠
·
2023-01-16 09:03
深度学习笔记整理
深度学习
pytorch
分类
图像处理
09 Softmax 回归 + 损失函数 + 图片分类数据集【
动手学深度学习
v2】
分类问题分类问题只关心对正确类的预测梯度下降理解https://zhuanlan.zhihu.com/p/335191534(强推)图像分类数据集importmatplotlib.pyplotaspltimporttorchimporttorchvisionfromtorch.utilsimportdatafromtorchvisionimporttransformsfromd2limportto
sueong
·
2023-01-16 09:02
pytorch
深度学习
09 Softmax回归+损失函数+图片分类数据集 [
动手学深度学习
v2]
Huber’sRobustLossl(y,y′)={∣y−y′∣−12if∣y−y′∣>112(y−y′)2otherwisel\left(y,y^{\prime}\right)=\begin{cases}\left|y-y^{\prime}\right|-\frac{1}{2}&\text{if}\left|y-y^{\prime}\right|>1\\\frac{1}{2}\left(y-y^
Grin*
·
2023-01-16 09:28
跟李沐学AI
人工智能
深度学习
【
动手学深度学习
】多层感知机(MLP)
1多层感知机的从零开始实现torch.nn继续使用Fashion-MNIST图像分类数据集导入需要的包importtorchfromtorchimportnnfromd2limporttorchasd2lbatch_size=256train_iter,test_iter=d2l.load_data_fashion_mnist(batch_size)##获取迭代器1.1初始化模型参数nn.Para
Ya_nnnG
·
2023-01-16 09:57
深度学习
深度学习
【
动手学深度学习
】线性回归+基础优化算法
参考:08线性回归+基础优化算法【
动手学深度学习
v2】_哔哩哔哩_bilibili【pytorch系列】withtorch.no_grad():用法详解_大黑山修道的博客-CSDN博客_torch.no_grad
Ya_nnnG
·
2023-01-16 09:26
深度学习
线性回归
算法
【
动手学深度学习
】Softmax 回归 + 损失函数 + 图片分类数据集
学习资料:09Softmax回归+损失函数+图片分类数据集【
动手学深度学习
v2】_哔哩哔哩_bilibilitorchvision.transforms.ToTensor详解|使用transforms.ToTensor
Ya_nnnG
·
2023-01-16 09:24
深度学习
深度学习
神经网络
【
动手学深度学习
】06-ResNet解析
目录ResNet解析0前言1基础2残差块3总结参考ResNet解析0前言论文:《DeepResidualLearningforImageRecognition》论文地址:DeepResidualLearningforImageRecognition|IEEEConferencePublication|IEEEXplore1基础经典网络ResNet(ResidualNetworks)由Kaiming
是安澜啊
·
2023-01-16 08:08
动手学深度学习
pytorch
深度学习
机器学习
动手学深度学习
v2-文本预处理
#文本预处理核心:数据变成所需的训练资料importcollectionsimportrefromd2limporttorchasd2l#将数据集读取由多条文本行组成的列表中d2l.DATA_HUB['time_machine']=(d2l.DATA_URL+'timemachine.txt','090b5e7e70c295757f55df93cb0a180b9691891a')#load一本书d
Hzt_dreamer
·
2023-01-15 10:19
深度学习
python
自然语言处理
《
动手学深度学习
》Task02-3:循环神经网络
循环神经网络本节介绍循环神经网络,下图展示了如何基于循环神经网络实现语言模型。我们的目的是基于当前的输入与过去的输入序列,预测序列的下一个字符。循环神经网络引入一个隐藏变量HHH,用HtH_{t}Ht表示HHH在时间步ttt的值。HtH_{t}Ht的计算基于XtX_{t}Xt和Ht−1H_{t-1}Ht−1,可以认为HtH_{t}Ht记录了到当前字符为止的序列信息,利用HtH_{t}Ht对序列的下
努力!才能被爱慕~
·
2023-01-15 10:48
Pytorch学习
动手学深度学习
(七、语言模型与循环神经网络)
动手学深度学习
(七、语言模型与循环神经网络)参考链接:循环神经网络一、语言模型语言模型是自然语言处理的重要技术。N元语法是基于n−1阶马尔可夫链的概率语言模型,其中n权衡了计算复杂度和模型准确性。
jiangchao98
·
2023-01-15 10:17
深度神经网络
神经网络
python
循环神经网络
深度学习
【cs231n Lesson6】Batch Normalization批量归一化
参考:李沐
动手学深度学习
v2批量归一化李宏毅批量归一化为什么要引入BatchNormalizationBackpropagation过程中,随着层数的深入,每一层的梯度变得越来越小,就导致上层的参数更新速度快
我什么都不懂zvz
·
2023-01-14 12:48
cs231n
batch
深度学习
L1正则化与L2正则化
这里推荐李沐老师以及王木头学科学的视频12权重衰退【
动手学深度学习
v2】_哔哩哔哩_bilibili“L1和L2正则化”直观理解(之一),从拉格朗日乘数法角度进行理解_哔哩哔哩_bilibili以上是拉格朗日乘子法理解以下是权重衰减角度理解
Adhere_Chris
·
2023-01-14 10:06
深度学习
人工智能
门控循环单元(GRU)——【torch学习笔记】
门控循环单元(GRU)引用翻译:《
动手学深度学习
》在一个递归神经网络中计算梯度,矩阵的长积会导致梯度消失或发散。可能会遇到这样的情况:早期的观察结果对于预测所有未来的观察结果来说是非常重要的。
一个语文不好的NLPer
·
2023-01-14 10:20
深度学习——torch学习笔记
gru
学习
深度学习
GRU门控循环单元自学笔记(
动手学深度学习
)
前言:在上一章节中,通过对RNN模型计算图进行反向传播链式求导推理,可以看出普通RNN模型可能存在梯度爆炸或梯度消失的问题(因为存在矩阵的次幂项)。因此在本章中提出了若干模型可以缓解梯度消失或梯度爆炸,并且这些模型可以做到对不同时间步设置不同权重(为重要时间节点赋予较大权重并更新隐状态,为不重要的时间节点赋予较小权重并且不更新隐状态)。LSTM出现时间早于GRU,但由于GRU架构较为简单,所以先进
王大大可
·
2023-01-14 10:50
深度学习
gru
神经网络
python
jupter
现代循环神经网络-1.门控循环单元(GRU)【
动手学深度学习
v2】
文章目录1.门控循环单元(GRU)1.1门控隐状态A.重置门与更新门B.候选隐状态C.隐状态1.2GRU的实现A.从零实现B.简洁实现1.门控循环单元(GRU)GRU是一个比较新的提出来的,在LSTM之后提出,但是相比LSTM思想更简单一点,效果也差不多,但是GRU的计算速度比LSTM更快。在RNN中,太长的信息处理效果并不好,因为RNN将所有信息都放进隐藏单元里,当时间步很长时,隐藏状态可能累积
紫色银杏树
·
2023-01-14 10:19
动手学深度学习v2
笔记
rnn
深度学习
gru
pytorch
Pytorch基本操作(6)——神经网络基本骨架、卷积操作与卷积层
1前言在学习李沐在B站发布的《
动手学深度学习
》PyTorch版本教学视频中发现在操作使用PyTorch方面有许多地方看不懂,往往只是“动手”了,没有动脑。
Xujl99
·
2023-01-14 00:04
pytorch
深度学习
pytorch
神经网络
深度学习
【无标题】
Vscode中使用Jupyter时,图片不显示问题,只有文字问题描述因为最近开始学习沐神的
动手学深度学习
,听完课之后就想着来自己敲一下代码,熟悉理论的同时,还能够学习python。
Elite_H
·
2023-01-13 19:54
python
开发语言
jupyter
vscode
查询文档 - 基于 mxnet
本博文来自于《
动手学深度学习
》本博文只是记录学习笔记,方便日后查缺补漏,如有侵权,联系删除查阅文档查找模块里的所有函数和类当我们想知道一个模块里面提供了哪些可以调用的函数和类的时候,可以使用dir函数。
帅到没朋友fx
·
2023-01-13 11:56
深度学习
python
人工智能
机器学习
动手学深度学习
--4.多层感知机
detach()用法目的:神经网络的训练有时候可能希望保持一部分的网络参数不变,只对其中一部分的参数进行调整,或者训练部分分支网络,并不让其梯度对主网络的梯度造成影响,这个时候我妈就需要使用detach()函数来切断一些分支的反向传播。tensor.detach()tensor.detach()会返回一个新的tensor,从当前的计算图中分离下来,但是仍指向原变量的存放位置,不同之处只是requi
为啥不能修改昵称啊
·
2023-01-13 09:46
深度学习
人工智能
python
【
动手学深度学习
】线性回归的简洁实现【代码】
更详细的解释地址importnumpyasnpimporttorchfromtorch.utilsimportdatafromd2limporttorchasd2ltrue_w=torch.tensor([2,-3.4])true_b=4.2features,labels=d2l.synthetic_data(true_w,true_b,1000)defload_array(data_arrays
I"ll carry you
·
2023-01-13 01:25
深度学习
深度学习
【笔记】
动手学深度学习
-线性回归
注:期望(mean)(或均值,亦简称期望):为试验中每次可能结果的概率乘以其结果的总和,是最基本的数学特征之一。它反映随机变量平均取值的大小。方差:为各个数据与平均数之差的平方的和的平均数梯度:数学上就是f(x,y)中,f对x的偏导和对y的偏导两者的和。图像上可以理解为指向f函数值最快增加方向。梯度讲解简洁实现使用nn模具,和预处理模块来使得实现更为简单1importnumpyasnpimport
echo_gou
·
2023-01-13 01:23
#
动手学深度学习
动手学深度学习
_线性回归
目录线性回归平方损失函数pytorch实现线性回归线性回归(LinearRegression)可以追溯到19世纪初,它在回归的各种标准工具中最简单而且最流行。线性回归基于几个简单的假设:首先,假设自变量x和因变量y之间的关系是线性的,即y可以表示为x中元素的加权和,这里通常允许包含观测值的一些噪声;其次,我们假设任何噪声都比较正常,如噪声遵循正态分布。线性模型可以表示为:向量版本:线性模型可以看做
CV小Rookie
·
2023-01-13 01:23
边学边记
深度学习
线性回归
机器学习
【
动手学深度学习
】 1前言
李沫《
动手学深度学习
》课程学习具体代码保存在自己的内存中,学完之后会考虑将资源全部上传,写文档的目的是保留一些自己认为重要的内容、调试的过程、练习的内容,尽力一周一章的学习进度。
sumshine_
·
2023-01-13 00:38
知识学习
人工智能
机器学习
NLP学习笔记(三)- 李沐老师《
动手学深度学习
》
准备开肝李沐老师的《
动手学深度学习
》《
动手学深度学习
》链接:http://tangshusen.me/Dive-into-DL-PyTorch/#/课程:课程安排-
动手学深度学习
课程B站视频:https
bit熊
·
2023-01-12 11:22
NLP
深度学习
自然语言处理
学习
动手学深度学习
-李沐(7)
一、权重衰退常用的处理过拟合的方法1、使用均方范数作为硬性限制通过限制参数值的选择范围来控制模型容量限制w的数值2、使用均方范数作为柔性限制(常用)补:正则项就是防止损失函数最优导致过拟合,把损失函数的最优点往外拉一拉3、总结权重衰退通过L2正则项使得模型参数不会过大,从而控制模型复杂度正则权重是控制模型负责度的超参数
Everyyang
·
2023-01-12 11:49
深度学习
人工智能
算法
动手学深度学习
-李沐(8)
一、dropout丢弃法1、动机一个好的模型需要对输入数据的扰动鲁棒丢弃法:在层之间加入噪音——正则2、方法给定一个概率,一定概率变成0,一定概率使得元素变大期望不发生变化3、使用4、总结丢弃法将一些输出项随机置0来控制模型复杂度常作用在多层感知机的隐藏层输出上丢弃概率来控制模型复杂度的超参数
Everyyang
·
2023-01-12 11:49
深度学习
人工智能
机器学习
动手学深度学习
-李沐(5)
一、Softmax回归1、回归和分类问题回归是估计一个连续值分类是预测一个离散类别(分类从回归的单输出变成了多输出,输出的个数就是类别的个数)2、ont-hot编码格式使用均方损失训练使用最大值标号作为预测3、softmax的作用:输出是一个概率(非负和为1)概率y和y^的区别作出损失4、用交叉熵常用来衡量两个概率的区别假设p,q是一对离散概率,假设有n个元素,对每个元素i进行操作将交叉熵作为损失
Everyyang
·
2023-01-12 11:48
机器学习
人工智能
深度学习
动手学深度学习
-李沐(2)
1、范数的概念2、对称与反对称Aij=Aji(对称)Aij=-Aji(反对称)3、正定4、正交矩阵5、特征向量不被矩阵改变方向的向量6、标量标量由只有一个元素的张量表示x=torch.tensor([3.0])7、向量向量由标量值组成的列表x=torch.arange(4)
Everyyang
·
2023-01-12 11:18
深度学习
人工智能
动手学深度学习
-李沐(3)
1、标量的导数2、对于不可导的情况,例如:y=|x|3、将导数拓展到向量标量求导是标量向量求导是向量4、补:上面是向量下面是标量,维度不变上面是标量下面是向量,维度变化(标量是一个值,向量是一串值)5、标量、向量求导问题
Everyyang
·
2023-01-12 11:48
深度学习
机器学习
人工智能
【机器学习、深度学习与强化学习】机器学习(1)---机器学习简介
、深度学习和强化学习,请注意强化学习需要ML与DL的一部分基础,不要直接跳到RL去学习,效率很低,参考资料很多,我先列一些我会用到的机器学习、深度学习的参考资料吧:1.西瓜书——周志华《机器学习》2.
动手学深度学习
旋转跳跃我闭着眼
·
2023-01-11 20:05
ML
DL和RL
机器学习
深度学习
《
动手学深度学习
》(六) -- 图像增广与微调
1图像增广图像增广在对训练图像进行一系列的随机变化之后,生成相似但不同的训练样本,从而扩大了训练集的规模。此外,应用图像增广的原因是,随机改变训练样本可以减少模型对某些属性的依赖,从而提高模型的泛化能力。例如,我们可以以不同的方式裁剪图像,使感兴趣的对象出现在不同的位置,减少模型对于对象出现位置的依赖。我们还可以调整亮度、颜色等因素来降低模型对颜色的敏感度。可以说,图像增广技术对于AlexNet的
长路漫漫2021
·
2023-01-11 16:07
Deep
Learning
深度学习
计算机视觉
人工智能
图像增广
微调
动手学深度学习
(二十六)——图像增广(一生二,二生三,三生万物?)
文章目录一、图像增广二、常用的图像增广方法1.翻转和裁减2.颜色改变3.叠加使用多种数据增广方法三、使用图像增广进行训练四、总结(干活分享)一、图像增广定义&解释:通过对训练图像做一系列随机改变,来产生相似但又不同的训练样本,从而扩大训练数据集的规模。随机改变训练样本可以降低模型对某些属性的依赖,从而提高模型的范化能力二、常用的图像增广方法使用下面这张400x500的图像作为范例%matplotl
留小星
·
2023-01-11 16:34
动手学深度学习:pytorch
数据增广
augmentor
深度学习
图像识别
pytorch
经典机器学习方法(2)—— Softmax 回归
参考:
动手学深度学习
注:本文是jupyternotebook文档转换而来,部分代码可能无法直接复制运行!
云端FFF
·
2023-01-11 16:32
#
监督学习
#
PyTorch
#
实践
softmax回归
softmax
回归
pytorch
深度学习
动手学深度学习
AI学习网站-收录
speech.ee.ntu.edu.tw/~hylee/ml/2022-spring.php白板推导:https://space.bilibili.com/97068901/channel/series李沐系列
动手学深度学习
Ray Song
·
2023-01-11 11:33
人工智能
学习
动手学深度学习
——循环神经网络
循环神经网络循环神经网络(RNN)主要用于预测任务:基于当前和历史输入序列,预测序列的下一个字符。循环神经网络相对于普通神经网络而言,最大的特点在于颖仓变量HHH的引进,用HtH_{t}Ht表示HHH在时间步ttt的值,该变量记录了到当前字符为止的序列信息。历史信息的使用使得预测更为精确。循环神经网络的示意图:循环神经网络模型假设Xt∈Rn×d\boldsymbol{X_{t}\in\mathbb
伸腿瞪眼丸
·
2023-01-11 07:48
书籍阅读
神经网络
深度学习
【
动手学深度学习
】之 现代卷积神经网络 AlexNet VGGNet NIN 习题解答
动手学深度学习
7.1AlexNet试着增加迭代轮数。对比LeNet的结果有什么不同?为什么?增加迭代次数,LeNet的准确率比AlexNet低,因为复杂的网络有着更强的学习能力。
丶契阔
·
2023-01-10 19:59
动手学深度学习
深度学习
人工智能
计算机视觉
动手学深度学习
(三)——torch操作(详细整理文档)
文章目录非常详细的一个文档,学习pytorch可以详细研究一下:对一些比较重要的功能和知识点进行复现:一、创建tensor张量二、tensor与numpy之间的相互转换三、tensor.function与tensor.function_的区别四、修改tensor的形状五、索引操作六.逐元素操作七.归并操作八、比较操作非常详细的一个文档,学习pytorch可以详细研究一下:http://www.fe
留小星
·
2023-01-10 12:14
动手学深度学习:pytorch
深度学习
numpy
python
机器学习
数据分析
《
动手学深度学习
》13.4锚框
13.4.1生成多个锚框参考:13.4.1生成多个锚框.代码实现导入功能包importtorchimportmatplotlib.pyplotasplt#精简打印精度,保留两位小数torch.set_printoptions(precision=2)定义生成以每个像素为中心具有不同形状的锚框函数#指定输入、一组大小和一组宽高比,该函数将返回输入的所有锚框defmultibox_prior(feat
whut_52xj
·
2023-01-10 12:37
动手学深度学习第二版
深度学习
pytorch
42. 锚框
这是根据沐神的
动手学深度学习
PyTorch版中的第42讲做的笔记。
lyqstar...
·
2023-01-10 11:36
深度学习
pytorch
深度学习
python
动手学深度学习
之锚框
锚框锚框就是一个框,边缘框就是一个物体的真实的位置的一个框,锚框是对这个边缘框位置的一个猜测。算法先给我们画出一个框,然后看这个框里面有没有物体。如果有的话,算法就基于这个物体进行预测,它到我们真实的边缘框是怎么偏移过去的。简单来说就是,先提出多个框,然后看看框里面有没有这个物体,有的话,就基于这个框来调整位置。这样我们就有两个预测,一个是对框中是否存在该物体的预测,另一个是锚框到真实的边缘框的预
哈哈哈捧场王
·
2023-01-10 11:30
机器学习&深度学习
深度学习
SSD目标检测的个人总结(1)—— 锚框的生成
沐神的b站
动手学深度学习
电子版锚框以SSD(单发多框检测)为例,在输入图像上,我们会以图片的每一个像素为中心,生成多个缩放比(Size)和
zyf_freashman
·
2023-01-10 11:29
个人总结
目标检测
人工智能
计算机视觉
李沐
动手学深度学习
v2-目标检测中的锚框和代码实现
一.目标检测中的锚框前提:本节锚框代码实现,使用了很多Pytorch内置函数,如果有对应函数看不懂的地方,可以查看前面博客对相应函数的具体解释,如下链接所示:Pytorch中torch.meshgrid()函数解析Pytorch中torch.stack()函数解析Pytorch中torch.cat()函数解析Pytorch中tensor.T(torch.T)解析Pytorch中torch.repe
cv_lhp
·
2023-01-10 11:56
Pytorch基础
深度学习
目标检测
pytorch
python
神经网络
目标检测-锚框概念和代码实现
前言经历过图像分类后,进一步的就是更复杂的目标检测了,从这一章开始,将会不断记录图像目标检测中的学习经历,其中大多数思路以及代码来源,来自于李沐的
动手学深度学习
课程,不过在这里,我会尽可能不用d2l的库
TOPthemaster
·
2023-01-10 11:25
pytorch深度学习
pytorch
深度学习
python
【
动手学深度学习
】之锚框生成函数代码实现
【代码】:importtorchfromd2limporttorchasd2l#更改打印设置torch.set_printoptions(2)defmultibox_prior(data,sizes,ratios):"""生成以每个像素为中心具有不同形状的锚框。"""#图片的高和宽in_height,in_width=data.shape[-2:]#查看操作设备(CPU/GPU),与锚框的参数de
LearnerzzZ
·
2023-01-10 11:55
动手学深度学习
深度学习
pytorch
深度学习
pytorch
人工智能
计算机视觉
神经网络
我要开始学习人工智能啦!
从今天开始,我将认真学习李沐老师的《
动手学深度学习
》和《实用机器学习》。我只是想要了解一下人工智能的相关知识。从今往后,我每天大约要花一个半小时的时间在人工智能上。我要将自己的所学记录在CSDN上。
IWMAIN
·
2023-01-09 12:56
人工智能
深度学习
DJL-Java开发者
动手学深度学习
之使用Softmax进行分类
分类在之前的文章中,我们介绍了线性回归的基本概念DJL-Java开发者
动手学深度学习
之线性回归,并使用高层API实两简单线性回归模型DJL-Java
动手学深度学习
之线性回归实现,有预测结果。
ousinka
·
2023-01-09 08:53
Java开发者动手学习深度学习
d2lcoder
DJL
深度学习
分类
java
动手学深度学习
的符号
@TOC数字张量:张量概念是矢量概念的推广,矢量是一阶张量。张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数。集合论函数和运算符自然对数:自然对数是以常数e为底数的对数,记作lnN(N>0),数学中也常见以logx表示自然对数。指数函数:一般地,y=a^x函数(a为常数且以a>0,a≠1)叫做指数函数指示函数:看链接按元素相乘:字面意思连结:字面意思向量的点积:点积在数学中
Jeremy Li
·
2023-01-09 08:21
学习
动手学深度学习笔记
深度学习
【
动手学深度学习
】20.卷积层里的填充和步幅
1、填充2、步幅这里的P是填充的总行数;nn.Conv2d(1,1,kernel_size=3,padding=1,stride=2),以此为例Ph和Pw就是为2,padding只是一边要加的行数或列数,上下左右加1行和1列。卷积核一般为3X3大小,如果不是则一般是基数填充通常是卷积核大小-1
ShadoooWM
·
2023-01-09 06:52
动手学深度学习课堂笔记
深度学习
上一页
11
12
13
14
15
16
17
18
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他