E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
动手学深度学习
图像分类数据集(Fashion-MNIST)tensorflow2.1
图像分类数据集(Fashion-MNIST)xiaoyao
动手学深度学习
tensorflow2.1.0在介绍softmax回归的实现前先引入一个多类图像分类数据集。
AIHUBEI
·
2020-07-01 07:44
深度学习
深度学习
tensorflow
python
图像分类
Fashion-MNIST
tensorflow2.1从零开始实现softmax回归
softmax回归的从零开始实现xiaoyao
动手学深度学习
tensorflow2.1.0这一节我们来动手实现softmax回归。首先导入本节实现所需的包或模块。
AIHUBEI
·
2020-07-01 07:44
深度学习
tensorflow
深度学习
python
softmax回归
动手学深度学习
tensorflow2简洁实现softmax回归
softmax回归简洁实现xiaoyao
动手学深度学习
tensorflow2importtensorflowastffromtensorflowimportkerasprint(tf.
AIHUBEI
·
2020-07-01 07:12
深度学习
深度学习
tensorflow
神经网络
softmax回归
动手学深度学习
平均值mean 和 方差variance 在变分自编码器(VAE)中的应用
CUDA、cuDNN,再安装Keras、TensorFlow)2.C/C++笔记、Python笔记、JavaWeb+大数据笔记3.Keras深度学习实战、PyTorch深度学习、Python深度学习、
动手学深度学习
あずにゃん
·
2020-07-01 07:08
人工智能
5月上市新书,总有一本你爱的
动手学深度学习
(平装)书名:《
动手学深度学习
(平装)》作者:阿斯顿·张(AstonZhang)李沐(MuLi)[美]扎卡里C.
weixin_33979745
·
2020-07-01 05:53
动手学深度学习
TF2.0第七课: 模型训练和参数调节技巧
模型结构的改变和超参数调节技巧训练误差和泛化误差通俗解释:训练误差就是由训练集上表现出的误差,而泛化误差为测试集上表现出的误差.由于训练误差是在训练集上通过最小化训练误差不断迭代得到的,所以训练误差的期望<=泛化误差的期望.所以训练集上的模型表现一般会优于测试集上的表现.因此,一味地降低训练误差并不意味着泛化误差一定会降低.机器学习模型应关注降低泛化误差!1.模型的选择通常需要评估若干候选模型的表
爱发呆de白菜头
·
2020-07-01 03:30
机器学习
用PyTorch实现的李沐《
动手学深度学习
》,登上GitHub热榜,获得700+星
晓查发自凹非寺量子位报道|公众号QbitAI李沐老师的《
动手学深度学习
》是一本入门深度学习的优秀教材,也是各大在线书店的计算机类畅销书。
QbitAl
·
2020-07-01 01:47
动手学深度学习
-04 过拟合、欠拟合及其解决方案
一、过拟合、欠拟合及其解决方案过拟合、欠拟合的概念权重衰减丢弃法模型选择、过拟合和欠拟合训练误差和泛化误差在解释上述现象之前,我们需要区分训练误差(trainingerror)和泛化误差(generalizationerror)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之
Xavier学长
·
2020-06-30 19:07
《
动手学深度学习
》资料汇总+网站推荐
信息化时代,最不缺的就是学习资料了~《
动手学深度学习
》这本书原版的名字叫《Diveintodeeplearning》,是由UC伯克利李沐等人开源的,该书一经推出便广受好评。
当交通遇上机器学习
·
2020-06-30 19:44
卷积神经网络知识学习笔记
教材选用《
动手学深度学习
》,李沐等著;卷积神经网络(CNN)是含有卷积层(convolutionallayer)的神经网络,二维卷积层有高和宽两个空间维度,常用来处理图像数据。
qiufeng1ye
·
2020-06-30 15:29
《
动手学深度学习
PyTorch版》1
第一节:线性回归向量运算时,矢量直接运算比循环算法效率高pytorch构建神经网络代码:方法1:class方法#waystoinitamultilayernetwork#methodonenet=nn.Sequential(nn.Linear(num_inputs,1)#otherlayerscanbeaddedhere)#methodtwonet=nn.Sequential()net.add_m
浮汐
·
2020-06-29 23:58
深度学习PyTorch
《
动手学深度学习
》TF2.0 实现
本项目将《
动手学深度学习
》原书中MXNet代码实现改为TensorFlow2.0实现。经过我的导师咨询李沐老师,这个项目的实施已得到李沐老师的同意。
布客飞龙
·
2020-06-29 19:03
tensorflow
动手学深度学习
-task01
Task-1:线性回归、多层感知机、softmax函数(1)线性回归作为基本的机器学习算法,实现较简单,应用广泛。以下为用pytorch编写的线性回归类importtorch.nnasnnimporttorchfromtorch.autogradimportVariablefromtorchimportoptimfromtorch.utilsimportdataimportrandomclassl
你在天堂遇到的五个人
·
2020-06-29 12:53
关于慕课第一讲的鸢尾花测试笔记——tensorflow2
在听完吴恩达的五节深度学习课之后想立一个flag:通过慕课来了解tensroflow框架,然后再深入阅读《
动手学深度学习
》tensorflow版,再最后深入学习花书。最后学习图像处理。
米米奇
·
2020-06-29 11:01
动手学深度学习
PyTorch版——Task05学习笔记
卷积神经网络基础importtorchimporttorch.nnasnndefcorr2d(X,K):H,W=X.shapeh,w=K.shapeY=torch.zeros(H-h+1,W-w+1)foriinrange(Y.shape[0]):forjinrange(Y.shape[1]):Y[i,j]=(X[i:i+h,j:j+w]*K).sum()returnYX=torch.tensor
土豆土豆昕昕
·
2020-06-29 10:56
《
动手学深度学习
》之线性回归的从零实现(含个人理解)
线性回归的从零实现尽管强⼤的深度学习框架可以减少⼤量重复性⼯作,但若过于依赖它提供的便利,会导致我们很难深⼊理解深度学习是如何⼯作的。因此,本节将介绍如何只利⽤NDArray和autograd来实现⼀个线性回归的训练。⾸先,导⼊本节中实验所需的包或模块fromIPythonimportdisplayfrommxnetimportautograd,ndimportrandom1.生成数据集我们构造⼀
面目不露骨
·
2020-06-29 08:21
深度学习
深度学习
python
动手学深度学习
笔记--LR_scratch
作图defuse_svg_display():#用矢量图显示display.set_matplotlib_formats('svg')defset_figsize(figsize=(4.5,2.5)):use_svg_display()#设置图的尺寸plt.rcParams['figure.figsize']=figsizeset_figsize()#设置fig大小plt.scatter(feat
tracking my heart
·
2020-06-29 04:42
《
动手学深度学习
》 RNN & GRU & LSTM with gluon
RNN循环神经网络,时间步t的隐藏变量的计算由当前时间步的输入和上一个时间步的隐藏状态共同决定。GRU门控循环单元,引入了重置门和更新门的概念。重置门输出R与上一时间步的隐藏状态按元素乘法,产生候选隐藏状态,决定是否drop上一时间步的隐藏状态。更新们对上一步的隐藏状态以及候选隐藏状态做加权平均,产生当前时间步的隐藏状态。LSTM长短期记忆,引入输入门,遗忘门,输出门。记住有6个公式。三个门的输出
Aissen_F
·
2020-06-29 03:57
d2lzh
d2lzh
动手学深度学习
学习笔记
全书数学基础:1.海森矩阵假设函数f:Rn→R的输入是一个n维向量x=[x1,x2,…,xn]⊤,输出是标量。假定函数f所有的二阶偏导数都存在,f的海森矩阵H是一个n行n列的矩阵:左上角为f对x1求2阶导,右下角为f对xn求2阶导,第一行第二列为f对x1和x2求混合偏导。2.范数x的L1范数是该向量元素绝对值之和,x的L2范数是该向量元素平方和的平方根,通常用∥x∥指代∥x∥2,矩阵X的Frobe
HUST_learner
·
2020-06-29 03:56
【学习笔记】
动手学深度学习
task03
文章目录一、过拟合、欠拟合及其解决方案1.过拟合、欠拟合的概念2.模型选择3.权重衰减3.1L2范数正则化(regularization)3.2丢弃法(dropout)二、梯度消失、梯度爆炸1.梯度消失和梯度爆炸2.随机初始化模型参数2.1为什么要随机初始化模型参数2.2PyTorch的默认初始化方法2.3Xavier随机初始化3.考虑环境因素3.1协变量偏移3.2标签偏移3.3概念偏移4.习题解
大象大象你的鼻子怎么那么长
·
2020-06-29 01:29
深度学习
人工智能与算法学习总结报告!(珍藏版)
PyTorch60分钟入门深度学习工具Pytorch想要入门最前沿的深度学习,那就用PyTorch版《
动手学深度学习
》吧!(附电子书下载)PyTorch多目标跟踪PyTorch初学者入门必看!
人工智能与算法学习
·
2020-06-29 00:55
[STAT-157] Kaggle: House Price
课程Youtube:DeepLearningUCBerkeleySTAT-157课本:
动手学深度学习
代码:d2l-ai3.16.实战Kaggle比赛:房价预测作为深度学习基础篇章的总结,我们将对本章内容学以致用
gdtop818
·
2020-06-28 20:36
UCB-STAT157
UCB-STAT157
动手学深度学习
之图像分类案例1-2
参考伯禹学习平台《
动手学深度学习
》课程内容内容撰写的学习笔记原文链接:https://www.boyuai.com/elites/course/cZu18YmweLv10OeV/lesson/ZDRJ8BaRpFmqDwJafJAYGn
water19111213
·
2020-06-27 14:26
动手学深度学习
之数据增强、模型微调
参考伯禹学习平台《
动手学深度学习
》课程内容内容撰写的学习笔记原文链接:https://www.boyuai.com/elites/course/cZu18YmweLv10OeV/lesson/6zsAsvcJ58UKvWtKArTqwq
water19111213
·
2020-06-27 14:26
《14天
动手学深度学习
》——机器翻译及相关技术
机器翻译和数据集机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。主要特征:输出是单词序列而不是单个单词。输出序列的长度可能与源序列的长度不同。In[28]:importosos.listdir('/home/kesci/input/')Out[28]:['fraeng6506','d2l9528','d2l6239']In[1]:i
我真的爱发明
·
2020-06-27 10:03
动手学深度学习
学习笔记tf2.0版(4.1 自定义模型)
让我们回顾一下在3.10节(“多层感知机的简洁实现”)一节中含单隐藏层的多层感知机的实现方法。我们首先构造Sequential实例,然后依次添加两个全连接层。其中第一层的输出大小为256,即隐藏层单元个数是256;第二层的输出大小为10,即输出层单元个数是10。我们在上一章的其他节中也使用了Sequential类构造模型。这里我们介绍另外一种基于tf.keras.Model类的模型构造方法:它让模
Zero_to_zero1234
·
2020-06-26 15:49
tf2.0
tf2.0之动手学深度学习
《
动手学深度学习
》—学习笔记
文章目录深度学习简介起源特点小结预备知识获取和运行本书的代码pytorch环境安装方式一方式二数据操作创建运算广播机制索引运算的内存开销NDArray和NumPy相互变换TensoronGPU(PyTorch)自动求梯度MXNetPyTorch查阅文档深度学习基础线性回归线性回归的基本要素模型模型训练模型预测线性回归的表示方法神经网络图矢量计算表达式小结线性回归的从零开始实现生成数据集读取数据初始
studyeboy
·
2020-06-26 15:25
动手学深度学习
-学习笔记(三)
本文内容包括:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶;一、过拟合、欠拟合及其解决方案模型选择、过拟合和欠拟合训练误差和泛化误差训练误差(trainingerror):模型在训练数据集上表现出的误差泛化误差(generalizationerror):模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的
花花世界1202
·
2020-06-26 15:20
动手学习深度学习
RNN-《
动手学深度学习
pytorch》
GRURNN存在的问题:梯度较容易出现衰减或爆炸(BPTT),改进:GRU⻔控循环神经⽹络:捕捉时间序列中时间步距离较⼤的依赖关系#GRUdefgru(inputs,state,params):W_xz,W_hz,b_z,W_xr,W_hr,b_r,W_xh,W_hh,b_h,W_hq,b_q=paramsH,=stateoutputs=[]forXininputs:Z=torch.sigmoid
serenysdfg
·
2020-06-26 08:39
深度学习
GitHub2019年6月最值得看的15个python项目
return_to=%2Fd2l-ai%2Fd2l-zh简介《
动手学深度学习
》:面向中文读者、能运行、可讨论。英文版即伯克利“深度学习导论(STAT157)”教材。iperov/
laiczhang
·
2020-06-26 03:01
GitHub
GitHub
python
深度学习
微信
笔记:
动手学深度学习
pytorch(机器翻译,Transformer,注意力机制和Sequence to sequence模型)
-机器翻译-机器翻译与数据集-机器翻译顾名思义,机器翻译就是将一段文本从一种语言翻译到另外一种语言,简称MT,而利用神经网络解决这个问题就被称为神经机器翻译(NMT)。特征主要是输出是单词序列而不是单个单词。输出序列的长度可能与源序列的长度不同。-数据预处理将数据集清洗、转化为神经网络的输入minbatchwithopen('/home/kesci/input/fraeng6506/fra.txt
盛季,夏开
·
2020-06-26 03:38
机器翻译
Transformer
注意力机制和Sequence
to
笔记:
动手学深度学习
pytorch(ModernRNN,过拟合欠拟合及其解决方案,梯度消失、梯度爆炸)
-ModernRNN-RNN:RNN(RecurrentNeuralNetwork)是一类用于处理序列数据的神经网络。RNN存在一些问题梯度较容易出现衰减或爆炸(BPTT)-梯度爆炸,梯度消失首先举一个例子:如果有一个层输为LLL的多层感知机的第lll层H(l)\boldsymbol{H}^{(l)}H(l)的参数为W(l)\boldsymbol{W}^{(l)}W(l),输出层H(L)\bold
盛季,夏开
·
2020-06-26 03:38
ModernRNN
过拟合欠拟合及解决方法
梯度消失
梯度爆炸
《
动手学深度学习
》d2lzh_pytorch (使用Google colab)导入问题
!pipinstall是没用的需要从GitHub上https://github.com/ShusenTang/Dive-into-DL-PyTorchclone下来然后下面展示一些内联代码片。//Anhighlightedblockfromgoogle.colabimportdrivedrive.mount('/content/drive')importospath="/...填写你的Google
SIVA3
·
2020-06-26 02:47
《Gluon
动手学深度学习
一》安装和运行
更多详细资料可以查看:网址1:http://zh.gluon.ai/chapter_crashcourse/install.html下面记录安装及简单调用的过程:1.环境:Windows764bit安装Anaconda(若未安装,可以参考网址1中的步骤)(根据操作系统下载并安装Miniconda(网址:https://conda.io/miniconda.html),在安装过程中需要勾选“AddA
邦戈栗子
·
2020-06-25 23:28
Python
机器学习
第0章【序】--
动手学深度学习
【Tensorflow2.0版本】
项目地址:https://github.com/TrickyGo/Dive-into-DL-TensorFlow2.0这个项目将《
动手学深度学习
》原书中MXNet代码实现改为TensorFlow2.0实现
土豆洋芋山药蛋
·
2020-06-25 07:15
【深度学习】过拟合抑制(二)丢弃法(dropout)
本文为《
动手学深度学习
》一书学习笔记,原书地址:http://zh.d2l.ai/chapter_deep-learning-basics/dropout.html
Beb1997
·
2020-06-25 04:56
人工智能
动手学深度学习
笔记3过拟合、欠拟合
一、欠拟合与过拟合误差:训练误差(trainingerror):指模型在训练数据集上表现出的误差泛化误差(generalizationerror):指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。机器学习模型应关注降低泛化误差。Q:如何计算误差?A:引入损失函数(MSE、交叉熵损失)。验证集:从严格意义上讲,测试集只能在所有超参数和模型参数选定后使用一次。因为
programer_cao
·
2020-06-24 20:08
《
动手学深度学习
pytorch版》代码笔记——第5-8章
第五章卷积神经网络知识点1:randn()与rand()函数作用np.random.randn()从标准正态分布中返回一个或多个样本值np.random.rand(m,n)生成m行n列的均匀分布的伪随机数知识点2:统一数据类型描述:5.1.3图像中物体边缘检测中,第一个小例子会出现expectedbackendCPUanddtypeFloatbutgotbackendCPUanddtypeLong
mintminty
·
2020-06-24 15:59
实例
《
动手学深度学习
pytorch版》代码笔记——第1-4章
主要参考文档【1】《
动手学深度学习
pytorch版》【2】《
动手学深度学习
》对着敲代码时常会遇到零星问题,本篇博客意在记录实现过程中琐碎知识点,边学边记~目录1.线性回归部分1.1数据类型问题1.2optimizer.step
mintminty
·
2020-06-24 15:59
实例
《
动手学深度学习
——机器翻译及相关技术,注意力机制与seq2seq模型,Transformer》笔记
动手学深度学习
:机器翻译及相关技术,注意力机制与seq2seq模型,Transformer初次学习机器翻译相关,把课程的概念题都记录一下。
loveheart123
·
2020-06-24 08:20
深度学习课程
动手学深度学习
Pytorch版本学习笔记 Task 03
1.过拟合、欠拟合及其解决方案1.1对于过拟合、欠拟合的理解我们探究模型训练中经常出现的两类典型问题:一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting);另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟合问题,在这里我们重点讨论两个因素
夜灬凄美
·
2020-06-23 21:34
收藏ai资料有关nlp和cv(一直更新)
eat_tensorflow2_in_30_dayspytorch框架https://pytorch.org/tutorials/mxnethttps://github.com/d2l-ai/d2l-zh推荐书籍
动手学深度学习
hufei_neo
·
2020-06-23 16:36
学习资料
模型选择、欠拟合和过拟合
参考书籍《
动手学深度学习
》(PyTorch版)0.训练误差和泛化误差在解释上述现象之前,我们需要区分训练误差(trainingerror)和泛化误差(generalizationerror)。
hou9021
·
2020-06-23 15:31
Pytorch学习
《
动手学深度学习
》(PyTorch版)2.2数据操作在PyTorch中,torch.Tensor是存储和变换数据的主要工具。
hou9021
·
2020-06-23 15:31
python
《
动手学深度学习
》PDF 开源了(全中文,支持 Jupyter 运行) ——PyTorch 版
半年前,由李沐、AstonZhang等人合力打造的《
动手学深度学习
》正式上线,免费供大家阅读。这是一本面向中文读者的能运行、可讨论的深度学习教科书!
鬼 | 刀
·
2020-06-23 09:30
深度学习
364 页 PyTorch 版《
动手学深度学习
》PDF 开源了(全中文,支持 Jupyter 运行)
半年前,由李沐、AstonZhang等人合力打造的《
动手学深度学习
》正式上线,免费供大家阅读。这是一本面向中文读者的能运行、可讨论的深度学习教科书!
风度78
·
2020-06-23 07:05
动手学深度学习
-机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer
今天学习了机器翻译及相关技术、注意力机制与Seq2seq模型、Transformer这三节的内容,特来打卡。一、机器翻译及相关技术机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。主要特征:输出是单词序列而不是单个单词。输出序列的长度可能与源序列的长度不同。importosos.listdir('/home/kesci/input/'
sjtucq
·
2020-06-23 00:50
动手学深度学习
: 图像分类案例2,GAN,DCGAN
动手学深度学习
:图像分类案例2,GAN,DCGAN内容摘自伯禹人工智能AI公益课程图像分类案例21、关于整理数据集后得到的train、valid、train_valid和test数据集:1)、找到一组合适的超参数后
blexsantos
·
2020-06-22 18:10
深度学习
动手学深度学习
:目标检测基础,图像风格迁移,图像分类案例1
动手学深度学习
:目标检测基础,图像风格迁移,图像分类案例内容摘自伯禹人工智能AI公益课程目标检测基础目标检测算法通常会在输入图像中采样大量的区域,然后判断这些区域中是否包含我们感兴趣的目标,并调整区域边缘从而更准确地预测目标的真实边界框
blexsantos
·
2020-06-22 18:10
深度学习
动手学深度学习
:机器翻译及相关技术,注意力机制与seq2seq模型,Transformer
动手学深度学习
:机器翻译及相关技术,注意力机制与seq2seq模型,Transformer内容摘自伯禹人工智能AI公益课程初次学习机器翻译相关,把课程的概念题都记录一下。
blexsantos
·
2020-06-22 18:09
深度学习
上一页
36
37
38
39
40
41
42
43
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他