E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
动手深度学习
动手深度学习
PyTorch(十一)机器翻译
机器翻译机器翻译是指将一段文本从一种语言自动翻译到另一种语言。因为一段文本序列在不同语言中的长度不一定相同,所以我们使用机器翻译为例来介绍编码器—解码器和注意力机制的应用。1.读取和预处理数据我们先定义一些特殊符号。其中“”(padding)符号用来添加在较短序列后,直到每个序列等长,而“”和“”符号分别表示序列的开始和结束。importcollectionsimportosimportioimp
Alex、木易
·
2020-08-22 12:50
PyTorch
动手深度学习
(Pytorch)之路---第三次打卡
引言今天分享两个深度学习实战任务:图像分类和文本分类。分别使用卷积神经网络和循环神经网络完成这次的实战任务。图像分类这里使用的数据集是CIFAR-10,比赛数据分为训练集和测试集。训练集包含50,000图片。测试集包含300,000图片。两个数据集中的图像格式均为PNG,高度和宽度均为32像素,并具有三个颜色通道(RGB)。图像涵盖10个类别:飞机,汽车,鸟类,猫,鹿,狗,青蛙,马,船和卡车。im
FNLP
·
2020-08-13 17:13
动手深度学习之路
动手深度学习
--自动求梯度--3
2.3.自动求梯度在深度学习中,我们经常需要对函数求梯度(gradient)。本节将介绍如何使用MXNet提供的autograd模块来自动求梯度。通过下面的代码导入autograd模块frommxnetimportautograd2.3.1.一个简单的例子我们先来看一个简单的例子,如何使用MXNet来求解y=2xTxy=2x^Txy=2xTx这个函数关于xxx的梯度的方法。print('简单例子'
k5722166
·
2020-08-11 03:17
深度学习
mxnet
机器学习
动手深度学习笔记
动手深度学习
PyTorch(九)GRU、LSTM、Bi-RNN
GRU上一篇介绍了循环神经网络中的梯度计算方法。我们发现,当时间步数较大或者时间步较小时,循环神经网络的梯度较容易出现衰减或爆炸。虽然裁剪梯度可以应对梯度爆炸,但无法解决梯度衰减的问题。通常由于这个原因,循环神经网络在实际中较难捕捉时间序列中时间步距离较大的依赖关系。门控循环神经网络(gatedrecurrentneuralnetwork)的提出,正是为了更好地捕捉时间序列中时间步距离较大的依赖关
Alex、木易
·
2020-08-11 02:12
PyTorch
动手深度学习
PyTorch(六)线性回归
通过前面几篇文章的铺垫,接下来我们正式进入模型算法的学习中。线性回归输出是一个连续值,因此适用于回归问题。回归问题在实际中很常见,如预测房屋价格、气温、销售额等连续值的问题。与回归问题不同,分类问题中模型的最终输出是一个离散值。我们所说的图像分类、垃圾邮件识别、疾病检测等输出为离散值的问题都属于分类问题的范畴。softmax回归则适用于分类问题。由于线性回归和softmax回归都是单层神经网络,它
Alex、木易
·
2020-08-11 02:11
PyTorch
动手深度学习
PyTorch(七)pytorch实现线性回归
随着深度学习框架的发展,开发深度学习应用变得越来越便利。我们将介绍如何使用PyTorch实现线性回归的训练。生成数据集我们生成数据集。其中features是训练数据特征,labels是标签。num_inputs=2num_examples=1000true_w=[2,-3.4]true_b=4.2features=torch.tensor(np.random.normal(0,1,(num_exa
Alex、木易
·
2020-08-11 02:41
PyTorch
动手深度学习
PyTorch(三)模型选择、欠拟合和过拟合
训练误差和泛化误差在解释上述现象之前,我们需要区分训练误差(trainingerror)和泛化误差(generalizationerror)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函
Alex、木易
·
2020-08-11 02:40
PyTorch
神经网络
深度学习
python
人工智能
pytorch
动手深度学习
PyTorch(四)权重衰减
动手深度学习
PyTorch(二)模型选择、欠拟合和过拟合中我们观察了过拟合现象,即模型的训练误差远小于它在测试集上的误差。虽然增大训练数据集可能会减轻过拟合,但是获取额外的训练数据往往代价高昂。
Alex、木易
·
2020-08-11 02:40
PyTorch
深度学习
python
正则化
pytorch
神经网络
动手深度学习
PyTorch(二)自动求梯度
在深度学习中,我们经常需要对函数求梯度(gradient)。PyTorch提供的autograd包能够根据输入和前向传播过程自动构建计算图,并执行反向传播。本节将介绍如何使用autograd包来进行自动求梯度的有关操作。概念上一节介绍的Tensor是这个包的核心类,如果将其属性.requires_grad设置为True,它将开始追踪(track)在其上的所有操作(这样就可以利用链式法则进行梯度传播
Alex、木易
·
2020-08-11 02:23
PyTorch
基于paddlepaddle复现crowdnet的人流密度检测
那时候才学习深度学习不久,之前一直在啃
动手深度学习
mxnet版本的原理知识,虽然提供了代码,可是自己这台笔记本实在胜任不了深度学习的任务,经常爆显存。纸上得来终觉浅,绝知此事要Code。
5jerry
·
2020-08-03 04:54
人流密度检测
crowednet
torchtext的安装
在学习《
动手深度学习
》的过程中,安装torchtext出了问题。
李不水@
·
2020-07-31 11:23
python学习
Linux下,Nvidia驱动以及Cuda的安装
最近刚好在看
动手深度学习
的书,需要在GPU环境下运行,故此记录一下。
一个左撇子
·
2020-07-30 20:12
Linux软件安装
pyTorch
动手深度学习
(线性回归、Softmax与分类模型、多层感知机)
1.线性回归:知识点:平方损失函数(用来评估评为i的样本误差)优化函数-随机梯度下降当模型和损失函数形式较为简单时,上面的误差最小化问题的解可以直接用公式表达出来。这类解叫作解析解(analyticalsolution)。线性回归和平方误差刚好属于这个范畴。然而,大多数深度学习模型并没有解析解,只能通过优化算法有限次迭代模型参数来尽可能降低损失函数的值。这类解叫作数值解(numericalsolu
circle_yy
·
2020-07-15 22:14
Pytorch
动手深度学习
(一)环境安装
序言从今天开始进行李牧大佬的《
动手深度学习
一书》的学习,首先要进行环境的安装和配置,在这里记录一下自己安装过程中踩过的一些坑。
qq_34771304
·
2020-07-14 18:36
动手深度学习
-环境配置(手动安装,一步一步教你,有截图可看)
一:官网教程这一部分对应了书中的第二讲:预备知识部分。因为我是Windows用户,所以这里先只讲Windows部分的安装过程。1:第一步是根据操作系统下载并安装Miniconda,在安装过程中需要勾选“AddAnacondatothesystemPATHenvironmentvariable”选项,将python添加到环境变量中。(https://conda.io/en/master/minico
LLM1602
·
2020-07-10 22:54
Pytorch实战语义分割(VOC2012)
本文参照了《
动手深度学习
》的9.9、9.10章节,原书使用的是mxnet框架,本文改成了pytorch代码。
inicho
·
2020-07-10 00:54
动手深度学习
Pytorch笔记
FASHION-MNIST)3.5.1获取数据集3.7SOFTMAX回归的简洁实现3.8多层感知机3.9多层感知机的从零开始实现3.10多层感知机的简洁实现参考资料Dive-into-DL-PyTorch:
动手深度学习
之
duter_sun先生
·
2020-06-23 06:07
pytorch
使用 TensorFlow2.0 实现线性回归
本文是笔者学习TensorFlow2.0(下文都写作TF2.0)的一篇笔记,使用的教材是《
动手深度学习
》(TF2.0版)。
程序员在深圳
·
2020-03-21 02:28
动手深度学习
之从线性回归到循环神经网络
参考伯禹学习平台《动手学深度》课程内容内容撰写的学习笔记原文链接:https://www.boyuai.com/elites/course/cZu18YmweLv10OeV感谢伯禹平台,Datawhale,和鲸,AWS给我们提供的免费学习机会!!总的学习感受:伯禹的课程做的很好,理论非常系统,但本人基础较差,故学习起来还是有难度,建议基础较差的同学可以学习伯禹的其他课程:数学基础:https://
water19111213
·
2020-02-14 14:58
深度学习
pytorch
自然语言处理
神经网络
动手深度学习
一一数据操作
一、创建NDarrray1.导入ndarray模块frommxnetimportnd2.创建一个行向量x=nd.arange(12)3.该向量的形状x.shape4.该向量的元素总数x.size5.改变向量形状x.reshape((3,4))#3行4列矩阵6.创建0或单位矩阵nd.zeros((2,3,4))#形状为(2,3,4)的张量向量和矩阵都是特殊的张量nd.one((3,4))7.创建指定
老权仔
·
2019-07-16 14:35
深度学习
动手深度学习
五---二维卷积层
1、二维互相关运算在二维卷积层中,一个二维输入数组和一个二维核数组通过互相关运算输出一个二维数组;核数组在卷积运算中又称卷积核、过滤器、卷积窗口;输出形状取决于卷积核和输入的形状如,二维输入数组(3X3)与二维核数组(2X2)互相关运算,产生结果是一个二维数组(2X2),卷积核按照从左往右,从上往下的顺序依次在输入数组上滑动,计算结果输⼊形状是nh×nw,卷积窗口形状是kh×kw,输出形状(nh−
棽棽
·
2019-06-02 15:00
动手深度学习
四---一些概念及解决办法
1、训练误差和泛化误差训练误差:训练集上表现出的误差泛化误差:在任意测试样本上表现出的误差的期望模型训练的目的就是降低泛化误差2、模型选择及K折交叉验证验证数据集:在实际训练模型的过程中,不能依据训练误差估计泛化误差,不能只依靠训练数据来选择模型,因此需要在原始数据集中预留一部分在训练数据集和测试数据集以外的数据来进行模型选择。选择方式并不固定,为了保证数据集的随机性,可以采用随机选择的方式K着交
棽棽
·
2019-05-28 11:00
从零开始
动手深度学习
视频,关于机器学习、CV、NLP、机器人的一些报告
目前的报告如下:DP:1-19ML:1-17CV:1-35NLP:1-32Robot:1-16深度学习——系列课程[已完结]李沐:来一起动手学深度学习吧bilibili上面也有同步跟新的视屏第一课:从上手到多类分类视频:https://pan.baidu.com/s/1qYUHNdy第二课:过拟合、多层感知机、GPU和卷积神经网络完整视频视频:https://pan.baidu.com/s/1hs
Haoyev5
·
2017-11-29 12:24
上一页
1
2
3
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他