E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
动手学深度学习
动手学深度学习
(pytorch)中d2lzh_pytorch包的安装(附资源)
d2lzh_pytorch包【
动手学深度学习
(pyTorch)】3.2.1节中原文:“我们将上面的plt作图函数以及use_svg_display函数和set_figsize函数定义在d2lzh_pytorch
一颗苹果OAOA
·
2020-08-13 18:03
pyTorch深度学习框架
python
深度学习
机器学习
ElitesAI·
动手学深度学习
PyTorch版-第五次打卡
1、卷积神经网络基础:1.1二维卷积操作:二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,
笃厚我无
·
2020-08-13 17:20
学习记录
个人记录
深度学习
Pytorch 学习(八):Pytorch 模型参数访问和初始化
Pytorch模型参数访问和初始化本方法总结自《
动手学深度学习
》(Pytorch版)github项目网络构建网络构建相关可参考Pytorch学习(七):Pytorch网络模型创建,建立一个多层感知器importtorchimporttorch.nnasnnnet
RememberUrHeart
·
2020-08-13 17:05
Pytorch
计算机视觉
python
Resnet网络回归的简单实现
注:参考《
动手学深度学习
》一书构建的网络模型是ResNet-18,即4个残差块,每块里面有四层卷积(不包括用以改变通道数的1×1卷积层),以及最开始的卷积层和最后的全连接层,总共18层数据集类型为简单的
飘满红楼
·
2020-08-13 17:55
python
算法
深度学习
python
动手学深度学习
PyTorch版-数据增强
数据增强图像增广importosos.listdir("/home/kesci/input/img2083/")%matplotlibinlineimportosimporttimeimporttorchfromtorchimportnn,optimfromtorch.utils.dataimportDataset,DataLoaderimporttorchvisionimportsysfromP
hongyesuifeng
·
2020-08-12 11:23
python
机器学习
使用conda安装torchtext
问题描述 在使用《
动手学深度学习
》中导入包的时候有一个包torchtext导入出现了问题,原来是没有装。
njulhy
·
2020-08-12 01:07
pytorch
python
机器学习
linux
深度学习
pytorch
动手学深度学习
读书笔记-6
缓解过拟合权重衰减权重衰减等价于L2范数正则化(regularization)。L2范数正则化在模型原损失函数基础上添加L2范数惩罚项,从而得到训练所需要最小化的函数。L2范数惩罚项指的是模型权重参数每个元素的平⽅和与⼀个正的常数的乘积。丢弃法丢弃法有⼀些不同的变体。本节中提到的丢弃法特指倒置丢弃法(inverteddropout)设丢弃概率为ppp,那么有ppp的概率hih_ihi会被清零,有1
wxl1999
·
2020-08-11 04:31
机器学习
《
动手学深度学习
》之实战Kaggle比赛:房价预测
参考实战Kaggle比赛:房价预测importtorchimporttorch.nnasnnimportnumpyasnpimportpandasaspdimportsyssys.path.append("..")importd2lzh_pytorchasd2ltorch.set_default_tensor_type(torch.FloatTensor)#PARTONE获取和读取数据集-----
乾巽
·
2020-08-11 04:24
pytorch深度学习
(Github搬砖)
动手学深度学习
(TF2.0版)-3.16 实战Kaggle比赛:房价预测
3.16实战Kaggle比赛:房价预测作为深度学习基础篇章的总结,我们将对本章内容学以致用。下面,让我们动手实战一个Kaggle比赛:房价预测。本节将提供未经调优的数据的预处理、模型的设计和超参数的选择。我们希望读者通过动手操作、仔细观察实验现象、认真分析实验结果并不断调整方法,得到令自己满意的结果。3.16.1Kaggle比赛Kaggle是一个著名的供机器学习爱好者交流的平台。图3.7展示了Ka
Pteromyini
·
2020-08-11 04:17
动手学深度学习
_1
pytorch
动手学深度学习
_11.线性回归1.1线性回归1.1.1数据集1.1.2模型1.1.3损失函数1.1.4优化函数-随机梯度下降1.2代码实现1.2.1线性回归从零开始版1.2.2线性回归pytorch
dayday学习
·
2020-08-11 04:24
手动学深度学习
《
动手学深度学习
》学习笔记------3.16. 实战Kaggle比赛:房价预测
《
动手学深度学习
》学习笔记------3.16.实战Kaggle比赛:房价预测预处理有的特征是连续数值,例如:MSSubClass;有的特征是离散数值,例如:SaleType。
机器视觉-zjuer
·
2020-08-11 04:31
动手学深度学习
:7.6 RMSProp算法
7.6RMSProp算法我们在7.5节(AdaGrad算法)中提到,因为调整学习率时分母上的变量stst\boldsymbol{s}_tf(x)=0.1x12+2x22中自变量的迭代轨迹。回忆在7.5节(AdaGrad算法)使用的学习率为0.4的AdaGrad算法,自变量在迭代后期的移动幅度较小。但在同样的学习率下,RMSProp算法可以更快逼近最优解。%matplotlibinlineimpor
AI_Younger_Man
·
2020-08-11 03:02
#
深度学习
动手学深度学习
:7.2 梯度下降和随机梯度下降
7.2梯度下降和随机梯度下降在本节中,我们将介绍梯度下降(gradientdescent)的工作原理。虽然梯度下降在深度学习中很少被直接使用,但理解梯度的意义以及沿着梯度反方向更新自变量可能降低目标函数值的原因是学习后续优化算法的基础。随后,我们将引出随机梯度下降(stochasticgradientdescent)。7.2.1一维梯度下降我们先以简单的一维梯度下降为例,解释梯度下降算法可能降低目
AI_Younger_Man
·
2020-08-11 03:02
#
深度学习
动手学深度学习
:7.4 动量法
7.4动量法在7.2节(梯度下降和随机梯度下降)中我们提到,目标函数有关自变量的梯度代表了目标函数在自变量当前位置下降最快的方向。因此,梯度下降也叫作最陡下降(steepestdescent)。在每次迭代中,梯度下降根据自变量当前位置,沿着当前位置的梯度更新自变量。然而,如果自变量的迭代方向仅仅取决于自变量当前位置,这可能会带来一些问题。https://tangshusen.me/Dive-int
AI_Younger_Man
·
2020-08-11 03:02
#
深度学习
动手学深度学习
:7.5 AdaGrad算法
7.5AdaGrad算法在之前介绍过的优化算法中,目标函数自变量的每一个元素在相同时间步都使用同一个学习率来自我迭代。举个例子,假设目标函数为fffst的累加效果使学习率不断衰减,自变量在迭代后期的移动幅度较小。%matplotlibinlineimportmathimporttorchimportsyssys.path.append("..")importd2lzh_pytorchasd2lde
AI_Younger_Man
·
2020-08-11 03:02
#
深度学习
动手学深度学习
:7.1 优化与深度学习
7.1优化与深度学习本节将讨论优化与深度学习的关系,以及优化在深度学习中的挑战。在一个深度学习问题中,我们通常会预先定义一个损失函数。有了损失函数以后,我们就可以使用优化算法试图将其最小化。在优化中,这样的损失函数通常被称作优化问题的目标函数(objectivefunction)。依据惯例,优化算法通常只考虑最小化目标函数。其实,任何最大化问题都可以很容易地转化为最小化问题,只需令目标函数的相反数
AI_Younger_Man
·
2020-08-11 03:01
#
深度学习
动手学深度学习
学习笔记(4)
自动求梯度PyTorch提供的autograd包能够根据输入和前向传播过程自动构建计算图,并执行反向传播。概念Tensor是这个包的核心,如果将其属性.requires_grad设置为True,它将开始追踪在其上的所有操作(这样就可以利用链式法则进行梯度传播)。完成计算后,可以调用.backward()来完成所有梯度计算。此Tensor的梯度将累积到.grad属性中。注意在y.backward()
it waits
·
2020-08-11 03:01
动手学深度学习
:3.16 实战Kaggle比赛:房价预测
3.16实战Kaggle比赛:房价预测作为深度学习基础篇章的总结,我们将对本章内容学以致用。下面,让我们动手实战一个Kaggle比赛:房价预测。本节将提供未经调优的数据的预处理、模型的设计和超参数的选择。我们希望读者通过动手操作、仔细观察实验现象、认真分析实验结果并不断调整方法,得到令自己满意的结果。3.16.1Kaggle比赛Kaggle是一个著名的供机器学习爱好者交流的平台。图3.7展示了Ka
AI_Younger_Man
·
2020-08-11 02:27
#
深度学习
动手学深度学习
PyTorch版——Task060910学习笔记
批量归一化和残差网络批量归一化从零开始importtimeimporttorchfromtorchimportnn,optimimporttorch.nn.functionalasFimporttorchvisionimportsyssys.path.append("/home/kesci/input/")importd2lzh1981asd2ldevice=torch.device('cuda'
土豆土豆昕昕
·
2020-08-09 01:34
使用pyTorch实现线性回归(详细版)——
动手学深度学习
01
前言:知识读不懂怎么办???没关系,只有一个办法靠谱:硬着头皮读完,然后反复读很多遍。这是一个特别重要的本领,很多人不知道。其实,重要的知识,从来都是通过反复学习才能获得的。一下就能学会得东西,通常上价值不大。对于我这种努力大于天赋的人来说,这句话可以说是很受用了。1、线性回归线性回归理论知识比较简单,已经很熟悉了,这里不再赘述。但面试时经常问:你学的那些算法,你自己有实现过吗?在不用库函数的前提
_missTu_
·
2020-08-08 22:03
pyTorch
深度学习
《
动手学深度学习
》Pytorch版学习笔记(三):Task06
《
动手学深度学习
》Pytorch版学习笔记(三):Task06课程背景主修课程1任务2NLP——文本情感分类2.1项目介绍2.2文本情感分类数据集2.3使用循环神经网络进行情感分类2.4使用卷积神经网络进行情感分类课程背景在疫情的影响下
SsunTtaoauto
·
2020-08-08 19:59
动手学深度学习
《
动手学深度学习
》Pytorch版学习笔记(二):Task05
《
动手学深度学习
》Pytorch版学习笔记(二):Task05课程背景主修课程1任务2循环神经网络基础2.1从零开始实现循环神经网络2.2循环神经网络的简介实现课程背景在疫情的影响下,不少学校已经做出了延迟开学的决定
SsunTtaoauto
·
2020-08-08 19:59
动手学深度学习
《
动手学深度学习
》Pytorch版学习笔记(二):Task04
《
动手学深度学习
》Pytorch版学习笔记(二):Task04课程背景主修课程1任务2机器翻译及相关技术3注意力机制与Seq2seq模型3.1注意力机制3.2注意力机制框架3.3引入注意力机制的Seq2seq
SsunTtaoauto
·
2020-08-08 19:59
动手学深度学习
Python学习1——学前准备
得出的结论就是学习深度学习(以Python为学习语言)先要了解有关Python有关的知识语法,也就是说对这一门语言有基础的认识,然后再学习一下与深度学习相关的基本知识,算法思想这里推荐一本《
动手学深度学习
柳奋进
·
2020-08-08 17:17
深度学习
动手学深度学习
Python
动手学深度学习
(PyTorch)笔记二、深度学习基础——线性回归
动手学深度学习
(PyTorch)代码笔记记录pytorch用于深度学习的学习过程。二、深度学习基础1、线性回归线性回归和softmax回归都是单层神经网络,用于解决回归问题。
liuwp5
·
2020-08-08 17:50
PyTorch
动手学深度学习
Pytorch版本学习笔记整理链接
Task01线性回归模型,softmax分类模型,多层感知机笔记链接Task02文本预处理,传统的n-gram模型,循环神经网络基础笔记链接Task03过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶笔记链接Task04机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer笔记链接Task05卷积神经网络基础;leNet;卷积神经网络进阶笔记链接Task06批量
夜灬凄美
·
2020-08-08 16:51
动手学深度学习
之过拟合与欠拟合
曾听人说过,DL强大之处在于它的拟合能力,只要你能给出的曲线,其方程都能用一套神经网络表示。不过,这套神经网络需要足够的数据以供训练,这里就引出了过拟合和欠拟合的概念。当神经网络很庞大,数据却不多,神经网络能够记住每个数据的特征,这会导致过拟合。反之,当神经网络规模较小或拟合能力还很弱,数据却很多时,就会出现欠拟合问题。过拟合、欠拟合训练误差和泛化误差训练误差指模型在训练数据集上表现出的误差;测试
程序猿一帆
·
2020-08-08 15:29
深度学习
动手学深度学习
Pytorch版Task01
线性回归一.基本要素1.模型一般为一公式,表示输入和输出之间的数学关系。2.数据集就是很多很多数据样本3.损失函数在模型训练中,我们需要衡量价格预测值与真实值之间的误差。通常我们会选取一个非负数作为误差,且数值越小表示误差越小。一个常用的选择是平方函数。公式表达如下4.优化函数(随机梯度下降)当模型和损失函数形式较为简单时,上面的误差最小化问题的解可以直接用公式表达出来。这类解叫作解析解(anal
Serendipityo
·
2020-08-08 13:28
动手学深度学习
PyTorch版——Task03学习笔记
过拟合、欠拟合及其解决方案多项式函数拟合实验%matplotlibinlineimporttorchimportnumpyasnpimportsyssys.path.append("/home/kesci/input")importd2lzh1981asd2lprint(torch.__version__)#初始化模型参数n_train,n_test,true_w,true_b=100,100,[
土豆土豆昕昕
·
2020-08-08 11:26
深度学习
pytorch
神经网络
《
动手学深度学习
》Pytorch版学习笔记(二):Task03
《
动手学深度学习
》Pytorch版学习笔记(二):Task03课程背景主修课程1任务2卷积神经网络基础2.1卷积层2.2填充和步幅2.3多输入通道和多输出通道2.4卷积层与全连接层的对比2.5卷积层的简洁实现
SsunTtaoauto
·
2020-08-08 11:42
动手学深度学习
《
动手学深度学习
》pytorch版笔记2
《
动手学深度学习
》pytorch版笔记2Task3过拟合、欠拟合及其解决方案这部分内容比较简单,写下问题吧,再挖几个坑1.模型复杂度如何改变,三阶到一阶等2.L2范数正则化为什么是权重衰减的一种方式?
qq_23305951
·
2020-08-06 11:02
GitHub 上六大爆款AI学习项目,Star超过5.6w
动手学深度学习
该书是加州大学伯克利分校2019年春学期IntroductiontoDeepLearning课程教材的中文翻译版。
Mr.Jk.Zhang
·
2020-08-05 10:43
动手学深度学习
PyTorch版-task5
目录:task1:https://blog.csdn.net/zahidzqj/article/details/104293563task2:https://blog.csdn.net/zahidzqj/article/details/104309590task3:https://blog.csdn.net/zahidzqj/article/details/104319328task4:https
wechat-920086481
·
2020-08-04 09:51
动手学深度学习
PyTorch版-task9
目录:task1:https://blog.csdn.net/zahidzqj/article/details/104293563task2:https://blog.csdn.net/zahidzqj/article/details/104309590task3:https://blog.csdn.net/zahidzqj/article/details/104319328task4:https
wechat-920086481
·
2020-08-04 09:51
动手学深度学习
PyTorch版-task4
目录:task1:https://blog.csdn.net/zahidzqj/article/details/104293563task2:https://blog.csdn.net/zahidzqj/article/details/104309590task3:https://blog.csdn.net/zahidzqj/article/details/104319328task4:本章节ta
wechat-920086481
·
2020-08-04 09:51
动手学深度学习
PyTorch版-task6
目录:task1:https://blog.csdn.net/zahidzqj/article/details/104293563task2:https://blog.csdn.net/zahidzqj/article/details/104309590task3:https://blog.csdn.net/zahidzqj/article/details/104319328task4:https
wechat-920086481
·
2020-08-04 09:51
动手学深度学习
PyTorch版-task10
目录:task1:https://blog.csdn.net/zahidzqj/article/details/104293563task2:https://blog.csdn.net/zahidzqj/article/details/104309590task3:https://blog.csdn.net/zahidzqj/article/details/104319328task4:https
wechat-920086481
·
2020-08-04 09:51
动手学深度学习
PyTorch版-task8
目录:task1:https://blog.csdn.net/zahidzqj/article/details/104293563task2:https://blog.csdn.net/zahidzqj/article/details/104309590task3:https://blog.csdn.net/zahidzqj/article/details/104319328task4:https
wechat-920086481
·
2020-08-04 09:51
动手学深度学习
PyTorch版-task3
目录:task1:https://blog.csdn.net/zahidzqj/article/details/104293563task2:https://blog.csdn.net/zahidzqj/article/details/104309590task3:本章节task4:https://blog.csdn.net/zahidzqj/article/details/104324196ta
wechat-920086481
·
2020-08-04 09:50
深度学习
神经网络
机器学习
动手学深度学习
PyTorch版-task2
目录:task1:https://blog.csdn.net/zahidzqj/article/details/104293563task2:本章节task3:https://blog.csdn.net/zahidzqj/article/details/104319328task4:https://blog.csdn.net/zahidzqj/article/details/104324196ta
wechat-920086481
·
2020-08-04 09:50
动手学深度学习
PyTorch版
《
动手学深度学习
》是2019年国内最受欢迎的人工智能学习教材之一,伯禹教育携手上海交通大学团队,以此书的知识架构为基础,沿用了其中的原理讲解文档,并将代码框架由MXNET迁移至PyTorch,还对这些优质的实践代码制作了讲解视频
致Great
·
2020-08-04 09:10
《
动手学深度学习
》Pytorch版开源!
那就用PyTorch版的《
动手学深度学习
》吧,零基础也能入门DL。李沐等人的开源中文书《
动手学深度学习
》现在有PyTorch版实现了。
算法channel
·
2020-08-04 08:29
《
动手学深度学习
PyTorch版》4
机器翻译及相关技术1、机器翻译和数据集机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。主要特征:输出是单词序列而不是单个单词。输出序列的长度可能与源序列的长度不同。1.数据预处理将数据集清洗、转化为神经网络的输入minbatchdefpreprocess_raw(text):#处理空格text=text.replace('\u202
浮汐
·
2020-08-04 08:46
深度学习PyTorch
《
动手学深度学习
》Pytorch版学习打卡 (一)
.多层感知机(MLP)4.文本预处理5.语言模型6.循环神经网络背景:有python和机器学习的基础,深度学习方面基础基本为0,了解到开源组织Datawhale和伯禹学习平台以及K-Lab合作推出了《
动手学深度学习
Zed
·
2020-08-04 07:01
深度学习
Pytorch
动手学深度学习
PyTorch-打卡1
一、线性回归线性回归的基本要素模型数据集我们通常收集一系列的真实数据,例如多栋房屋的真实售出价格和它们对应的面积和房龄。我们希望在这个数据上面寻找模型参数来使模型的预测价格与真实价格的误差最小。在机器学习术语里,该数据集被称为训练数据集(trainingdataset)或训练集(trainingset),一栋房屋被称为一个样本(sample),其真实售出价格叫作标签(label),用来预测标签的两
weixin_41765544
·
2020-08-04 06:02
李沐《
动手学深度学习
》PyTorch 实现版开源,瞬间登上 GitHub 热榜!
半年前,由李沐、AstonZhang等人合力打造的《
动手学深度学习
》正式上线,免费供大家阅读。这是一本面向中文读者的能运行、可讨论的深度学习教科书!
小詹学 Python
·
2020-08-04 06:15
《
动手学深度学习
》PyTorch 版本总结(1)
通过伯禹学习平台和Kesci平台,参与了一项14天学习《
动手学深度学习
》课程,这本书是由李沐等大神编写而成,并提供了配套的视频和源代码。
行路南
·
2020-08-04 02:59
机器学习
Pytorch目标检测学习资源
Pytorch学习陈云《深度学习框架PyTorch:入门与实践》:https://zhuanlan.zhihu.com/p/31712507官方教程:http://pytorch123.com/
动手学深度学习
松菇
·
2020-08-04 01:19
目标检测
目标检测
Pytorch
动手学习深度学习_笔记1
这是《
动手学深度学习
》14天公益课程的笔记。希望能坚持下去,好好学习。1.1线性回归线性回归假设输出与输入之间是线性关系。
sinat_28054577
·
2020-08-04 00:17
注意力机制-《
动手学深度学习
pytorch》
引入注意力机制原因在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(contextvector)来获取输⼊序列信息。然而RNN机制实际中存在长程梯度消失的问题,对于较长的句子,我们很难寄希望于将输入的序列转化为定长的向量而保存所有的有效信息,所以随着所需翻译句子的长度的增加,这种结构的效果会显著下降。与此同时,解码的目标词语可能只与原输入的部分词语有关,而并不是与
serenysdfg
·
2020-08-04 00:45
深度学习
上一页
32
33
34
35
36
37
38
39
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他