E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
动手学深度学习
吴恩达深度学习工程师系列课程笔记(Deep Learning Specialization - deeplearning.ai)
深度学习笔记导航前言传送门完结感想前言选择吴恩达的深度学习视频作为入门是明智的选择,我对比过包括
动手学深度学习
在内的一些入门资料,感觉还是吴恩达的最为通俗易懂,虽然他在RNN那部分讲的一般,但是即使是这样
亦梦亦醒乐逍遥
·
2023-01-09 00:42
人工智能
个人随笔/学习笔记
人工智能
深度学习
机器学习
动手学深度学习
笔记day3
线性回归线性模型线性假设是指目标(房屋价格)可以表示为特征(面积和房龄)的加权和,或其中,x,w∈损失函数回归问题中最常用的损失函数是平方误差函数。当样本i的预测值为y^(i),其相应的真实标签为y(i)时,平方误差可以定义为以下公式:为了度量模型在整个数据集上的质量,需计算在训练集n个样本上的损失均值(也等价于求和)。在训练模型时,希望寻找一组参数(w∗,b∗),这组参数能最小化在所有训练样本上
努力学习的廖同学
·
2023-01-08 16:59
深度学习
《
动手学深度学习
(Dive into Deeplearning)》(第二版)——第二章 _2.1 数据操作
《
动手学深度学习
(DiveintoDeeplearning)》(第二版)——第二章_2.1数据操作第二章预备知识§2.0开始§2.1数据操作2.1.1入门2.1.2运算2.1.3广播机制2.1.4索引和切片
def_Mark_Heng
·
2023-01-08 11:05
《动手学深度学习》自学之路
人工智能
机器学习
深度学习
python
pytorch深度学习入门-1
文章目录
动手学深度学习
搭建自己的pytorch环境初识torch收获参考文献
动手学深度学习
发现了一个不错的教程,《
动手学深度学习
》,在此记录这个过程中出现的一些问题。
smile_chance
·
2023-01-08 11:52
深度学习pytorch
pytorch
深度学习
python
经典机器学习方法(1)—— 线性回归
参考:
动手学深度学习
注:本文是jupyternotebook文档转换而来,部分代码可能无法直接复制运行!
云端FFF
·
2023-01-08 07:42
#
监督学习
#
PyTorch
#
实践
机器学习
线性回归
pytorch
动手学深度学习
——线性回归之从零开始代码实现
线性回归的从零开始实现在了解线性回归的关键思想之后,我们可以开始通过代码来动手实现线性回归了。在这一节中,我们将从零开始实现整个方法,包括数据流水线、模型、损失函数和小批量随机梯度下降优化器。虽然现代的深度学习框架几乎可以自动化地进行所有这些工作,但从零开始实现可以确保你真正知道自己在做什么。同时,了解更细致的工作原理将方便我们自定义模型、自定义层或自定义损失函数。在这一节中,我们将只使用张量和自
时生丶
·
2023-01-08 07:38
深度学习笔记
深度学习
线性回归
python
pytorch
Colab报错:ImportError: cannot import name ‘_check_savefig_extra_args‘ from ‘matplotlib.backend_bases‘
目录问题描述:解决办法:问题描述:在跟着沐神学习《
动手学深度学习
V2》的时候,在”08线性回归+基础优化算法“的时候,Colab报错ImportError:cannotimportname'_check_savefig_extra_args'from'matplotlib.backend_bases
薰珞婷紫小亭子
·
2023-01-07 13:40
报错
python
8李沐
动手学深度学习
v2/逻辑回归(softmax回归(分类))从0开始实现
总结:softmax做预测输出交叉熵做损失函数多类别,一个样本属于每个类别的概率python中张量乘法都是对应位置元素相乘数据模型超参数参数损失函数优化算法开始训练梯度:谁要计算梯度requires.grad;不计算梯度detach()当前结点移出计算图;不计算梯度withtorch.no_grad();清空梯度param.grad.zero()updater.zero_grad()梯度:没有对要
xcrj
·
2023-01-07 09:47
深度学习
深度学习
逻辑回归
回归
Softmax(分类模型基础)——最全重难点解释及代码
1.3整合所有组件2.初始化模型参数3.定义softmax操作3.1sum()方法基础3.2softmax操作4定义模型5.定义损失函数6.分类准确率7.训练7.2定义优化器写在前面:本节内容主要参考自《
动手学深度学习
Yuuu_le
·
2023-01-07 09:45
d2l
深度学习
pytorch
神经网络
机器学习基础(6)—— 使用权重衰减和丢弃法缓解过拟合问题
参考:
动手学深度学习
注:本文是jupyternotebook文档转换而来,部分代码可能无法直接复制运行!
云端FFF
·
2023-01-06 13:34
机器学习
过拟合
权重衰减
丢弃法
dropout
L2正则化
动手学深度学习
第三章 线性神经网络 练习(Pytorch版)
文章目录线性神经网络线性回归小结练习线性回归的从零开始实现小结练习线性回归的简洁实现小结练习softmax回归小结练习图像分类数据集小结练习softmax回归的从零开始实现小结练习softmax回归的简洁实现小结练习线性神经网络线性回归小结机器学习模型中的关键要素是训练数据、损失函数、优化算法,还有模型本身。矢量化使数学表达上更简洁,同时运行的更快。最小化目标函数和执行极大似然估计等价。线性回归模
看星星的花栗鼠
·
2023-01-06 11:27
动手学深度学习
python
pytorch
深度学习
《
动手学深度学习
》第三章——(4)softmax回归的简洁实现_学习思考与习题答案
文章目录重新审视Softmax的实现优化算法训练练习#作者github[源码地址](https://github.com/Zhangshuor/deeplearning/blob/main/chapter_linear-networks/linear-regression-concise.py)#softmax回归的简洁实现:label:`sec_softmax_concise`在:numref:
coder_sure
·
2023-01-06 11:56
深度学习
深度学习
回归
学习
动手学深度学习
-Softmax与分类模型-Day1
Softmax与分类模型今天完成的依然是day1打卡内容中的~学习内容:softmax回归的基本概念如何获取Fashion-MNIST数据集和读取数据Softmax回归模型的从零开始实现,实现一个对Fashion-MNIST训练集中的图像数据进行分类的模型使用pytorch重新实现Softmax回归模型Softmax的基本概念分类问题一个简单的图像分类问题,输入图像的高和宽均为2像素,色彩为灰度(
Aileen爱学习
·
2023-01-06 11:26
动手学深度学习
深度学习
动手学深度学习
c0304softmax函数
动手学深度学习
3.4softmax回归3.4.1分类问题3.4.2网络框架3.4.3全连接层的参数开销3.4.4softmax运算3.4.5小批量样本的矢量化3.4.6损失函数对数似然softmax及其导数交叉熵损失
Ysdabaicai
·
2023-01-06 11:53
深度学习
pytorch
机器学习
《
动手学深度学习
》task5_3 卷积神经网络进阶
系统学习《
动手学深度学习
》点击这里:《
动手学深度学习
》task1_1线性回归《
动手学深度学习
》task1_2Softmax与分类模型《
动手学深度学习
》task1_3多层感知机《
动手学深度学习
》task2
shiinerise
·
2023-01-06 11:19
深度学习
Alexnet
GoogleNet
vgg
cnn
动手学深度学习
《
动手学深度学习
》| 2 深度学习基础
目录1线性回归1.1线性回归的基本要素1.2线性回归与神经网络的联系1.3线性回归的矢量表示法1.4线性回归的从零开始实现1.5线性回归的简洁实现1.6Keras线性回归练习2图像分类数据集(Fashion-MNIST)2.1数据集介绍2.2数据集获取2.3读取小批量2.4小结3softmax回归3.1softmax回归模型3.2softmax的矢量计算表达式3.3交叉熵损失函数3.4softma
Marlowe.
·
2023-01-06 11:48
深度学习
深度学习
tensorflow
李沐
动手学深度学习
V2-实战 Kaggle 比赛:图像分类 (CIFAR-10)和代码实现
一.实战Kaggle竞赛:图像分类(CIFAR10)1.数据集信息比赛数据集分为训练集和测试集,其中训练集包含50000张、测试集包含300000张图像。在测试集中,10000张图像将被用于评估,而剩下的290000张图像将不会被进行评估,包含它们只是为了防止手动标记测试集并提交标记结果。两个数据集中的图像都是png格式,高度和宽度均为32像素并有三个颜色通道(RGB)。这些图片共涵盖10个类别:
cv_lhp
·
2023-01-06 09:21
李沐动手学深度学习笔记
深度学习
pytorch
人工智能
神经网络
python
《
动手学深度学习
》安装CPU计算的MXNet和GPU版本的MXNet
在上篇文章我介绍了深度学习的一些python基础和IDE的选择,这次我们从李沐老师的译作《
动手学深度学习
》中完整的走一遍安装MXNet的安装。
程序员子进
·
2023-01-06 07:25
python
深度学习
caffe
人工智能
英文版
动手学深度学习
书中MXnet安装采坑(1.6版本cpu安装)
MXNet安装采坑补充:B站2021最新李沐课程——动手学DL1.说明因为想跑一下英文版
动手学深度学习
recommendationsystem章节的代码,所以就配了下环境。
卡塞尔学院临时校长
·
2023-01-06 07:55
推荐系统
mxnet
【已解决】cpu版mxnet安装
mxnet版本:cpu版本,1.5.0mxnet中提供了机器学习的一些函数,然而安装并不是一帆风顺,下面记录一些安装步骤,希望帮助到大家步骤首先是《
动手学深度学习
》里面的environment.yml文件
qq_53826655
·
2023-01-06 07:23
python
动手学深度学习
笔记-线性回归的简洁实现
文章目录引入所需库生成带噪声的人造数据集随机取小批量函数定义线性回归模型(线性神经网络)初始化模型参数定义损失函数定义小批量随机梯度下降优化算法训练模块引入所需库importnumpyasnpimporttorchfromtorch.utilsimportdatafromd2limporttorchasd2lfromtorchimportnn#nn为神经网络的缩写生成带噪声的人造数据集#生成带噪声
lalula1999
·
2023-01-06 04:10
动手学深度学习笔记
深度学习
线性回归
神经网络
python
pytorch
动手学深度学习
学习笔记tf2.0版(第三课:深度学习基础之线性回归)
start=time.time()c=tf.Variable(tf.zeros(1000,))foriinrange(1000):c[i].assign(a[i]+b[i])time()-start#输出0.31618547439575195向量相加的另一种方法是,将这两个向量直接做矢量加法。start=time()c.assign(a+b)time()-start#输出0.0小结:和大多数深度学
Zero_to_zero1234
·
2023-01-06 04:09
动手学深度学习
笔记-线性回归的从零开始实现
文章目录引入所需库生成带噪声的人造数据集随机取小批量函数定义线性回归模型定义损失函数定义小批量随机梯度下降优化算法初始化模型参数训练模块引入所需库若有ModuleNotFoundError:NoModulenamed'matplotlib_inline’错误,可参考博客生成带噪声的人造数据集#生成带噪声的人造数据集w=[2,-3.4]Tb=4.2defsynthetic_data(w,b,num_
lalula1999
·
2023-01-06 04:09
动手学深度学习笔记
深度学习
线性回归
python
pytorch
学习笔记-
动手学深度学习
-线性回归
3.1.线性回归回归(regression)是能为一个或多个自变量与因变量之间关系建模的一类方法。在自然科学和社会科学领域,回归经常用来表示输入和输出之间的关系。在机器学习领域中的大多数任务通常都与预测(prediction)有关。3.1.1.线性回归的基本元素线性模型矩阵向量表示为:线性回归的目标是找到一组权重向量w和偏置b:当给定从X的同分布中取样的新样本特征时,这组权重向量和偏置能够使得新样
普尔
·
2023-01-06 04:39
学习
深度学习
线性回归
线性回归的从零开始实现(
动手学深度学习
第二章)学习笔记1
线性回归的从零开始实现(
动手学深度学习
第二章)学习笔记11.导入模块首先是模块的导入:%matplotlibinlinefromIPythonimportdisplayfrommatplotlibimportpyplotaspltfrommxnetimportautograd
纳show
·
2023-01-06 04:39
深度学习
线性回归
学习
动手学深度学习
笔记1-线性回归从0到1实现
fromIPythonimportdisplayfrommatplotlibimportpyplotaspltfrommxnetimportautograd,ndimportrandom#生成数据集,训练数据集样本数1000,输入个数特征数2num_inputs=2num_examples=1000#真实权重true_w=[2,-3.4]#偏差true_b=4.2features=nd.rando
输入法打可爱按第五
·
2023-01-06 04:09
动手学深度学习
深度学习
线性回归
python
动手学深度学习
笔记第二章(预备知识)
研0深度学习小白,python也忘了很多,学习沐神的课程顺便记录一下笔记和自己遇到的一些疑问2.1数据操作求张量的形状和元素总数x=torch.arange(12)x.shape#torch.size(12)x.numel()#12reshape中的-1自动计算维度x.reshape(-1,4)==x.reshape(3,4)torch.randntorch.randn(3,4)#3行4列的均值为
冬青庭院
·
2023-01-06 04:09
我的动手学深度学习笔记
深度学习
python
numpy
动手学深度学习
笔记第三章(线性回归网络)
3.1线性网络偏置目的是当所有特征都为0时,预测值应该为多少。线性公式就是一种放射变化,放射变化是通过加权和对特征进行线性变换,而偏置项则是来进行平移。梯度下降小批量样本回归:随机抽样一个小批量的训练样本,然后计算小批量的平均损失关于模型参数的导数(梯度)。复习python面向对象:类有一个名为init()的特殊方法(构造方法),类的实例化操作会自动调用init()方法。如下实例化类MyClass
冬青庭院
·
2023-01-06 04:08
我的动手学深度学习笔记
深度学习
线性回归
python
动手学深度学习
(一)
数组是机器学习和深度学习常用的工具0-维——标量1-维——特征向量2-维——样本特征向量矩阵3-维——eg:图片(宽*高*通道)4-维——批量的3维数据5-维——eg:视频(加入时间序列)创建数组的三要素:形状、数据类型、数据数组的访问:1个元素:[1,2];一行:[1,:];一列:[:,1]子区域:[1:3,1:](1到2行,列取全部)子区域:[::3,::2](每3行一跳,每2列一跳)数组的使
Fine_jx.
·
2023-01-05 21:43
pytorch
深度学习
人工智能
Pytorch 微调(Fine-tuning)
Pytorch微调(Fine-tuning)0.环境介绍环境使用Kaggle里免费建立的Notebook教程使用李沐老师的
动手学深度学习
网站和视频讲解小技巧:当遇到函数看不懂的时候可以按Shift+Tab
哇咔咔负负得正
·
2023-01-05 15:55
#
CV
pytorch
深度学习
神经网络
动手学深度学习
---深度学习计算篇
第5章深度学习计算1.层和块事实证明,研究讨论**‘’比单个层大‘’但’‘比整个模型小’'**更有价值。神经网络—块**块(block)**可以描述单个层、由多个层组成的组件或整个模型本身使用块的好处:可以将多个块组合成为更大的组件,如下图从编程角度来看,block由class表示。它的任何子类都必须定义一个将其输入转化为输出的前向传播函数,并且必须存储任何必须的参数,最后,为了计算梯度(grad
yijie_01
·
2023-01-05 12:07
动手学深度学习
深度学习
人工智能
神经网络
动手学深度学习
--计算性能篇
第12章计算性能篇前言:在DL中,通常dataset与net较大会导致计算量很大,因此计算性能非常重要,因为接下来我们将讨论影响计算性能的主要因素:①命令式编程②符号编程③异步计算④自动并行与多GPU计算通过以上方法,我们可以在不影响accuracy的前提下,大大减少trainingtime1.编译器和解释器命令式编程(imperativeprogramming)可以理解为解释性执行代码,即按步进
yijie_01
·
2023-01-05 12:07
动手学深度学习
深度学习
python
pytorch
GoogLeNet的pytorch实现和调参
GoogLeNet
动手学深度学习
代码开源githubimporttorchfromtorchimportnnfromtorch.nnimportfunctionalasFimportd2l.torchasd2lInceptionInceptionInception
d3ac
·
2023-01-05 11:15
深度学习
深度学习
pytorch
python
神经网络
人工智能
Pytorch 网络中的网络 NiN
Pytorch网络中的网络NiN0.环境介绍环境使用Kaggle里免费建立的Notebook教程使用李沐老师的
动手学深度学习
网站和视频讲解小技巧:当遇到函数看不懂的时候可以按Shift+Tab查看函数详解
哇咔咔负负得正
·
2023-01-05 09:51
#
CV
pytorch
《
动手学深度学习
》Task03 :过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶
一、模型选择、过拟合和欠拟合模型选择验证数据集从严格意义上讲,测试集只能在所有超参数和模型参数选定后使用一次。不可以使用测试数据选择模型,如调参。由于无法从训练误差估计泛化误差,因此也不应只依赖训练数据选择模型。鉴于此,我们可以预留一部分在训练数据集和测试数据集以外的数据来进行模型选择。这部分数据被称为验证数据集,简称验证集(validationset)。例如,我们可以从给定的训练集中随机选取一小
小葡萄co
·
2023-01-05 02:02
Transformer - PyTorch
动手学深度学习
笔记一、模型1.基于位置的前馈神经网络2.残差连接和层归一化二、编码器三、解码器四、训练和预测一、模型Transformer模型是完全基于注意力机制,所以在学习Transformer之前要知道什么是注意力
葫芦娃啊啊啊啊
·
2023-01-04 20:39
深度学习知识点
transformer
pytorch
深度学习
机器翻译
动手学深度学习
:5.2 填充和步幅
5.2填充和步幅在上一节的例子里,我们使用高和宽为3的输入与高和宽为2的卷积核得到高和宽为2的输出。一般来说,假设输入形状是nh×nwnh×nwn_h\timesn_w0×0+0×1+0×2+0×3=0。图5.2在输入的高和宽两侧分别填充了0元素的二维互相关计算一般来说,如果在高的两侧一共填充phphp_h⌊ph/2⌋行。在宽的两侧填充同理。卷积神经网络经常使用奇数高宽的卷积核,如1、3、5和7,
AI_Younger_Man
·
2023-01-04 19:53
#
深度学习
动手学深度学习
_转置卷积
卷积是一种下采样操作,可以减少输入图像的空间维度(高和宽)。转置卷积(transposedconvolution),可以看作是卷积的逆,是一种上采样操作,增大特征图的空间维度(高和宽)。注意这里卷积的逆只针对图像大小,图像中的值发生改变。卷积一个最简单例子演示转置卷积如何工作:设步幅为1且没有填充。假设我们有一个的输入张量和一个的卷积核。以步幅为1滑动卷积核窗口,每行次,每列次,共产生个中间结果。
CV小Rookie
·
2023-01-04 19:52
边学边记
深度学习
人工智能
机器学习
动手学深度学习
10:汇聚层(pooling)
动手学深度学习
10:汇聚层(pooling)通常当我们处理图像时,我们希望逐渐降低隐藏表示的空间分辨率、聚集信息,这样随着我们在神经网络中层叠的上升,每个神经元对其敏感的感受野(输入)就越大。
NUAA_Peter
·
2023-01-04 19:52
深度学习
深度学习
python
计算机视觉
动手学深度学习
11:LeNet
动手学深度学习
11:LeNetLeNet结构总体来看,(LeNet(LeNet-5)由两个部分组成:)卷积编码器:由两个卷积层组成;全连接层密集块:由三个全连接层组成。
NUAA_Peter
·
2023-01-04 19:52
深度学习
深度学习
人工智能
python
25李沐
动手学深度学习
v2/填充和步幅
填充相同的高度和宽度,在所有侧边添加1个像素importtorchfromtorchimportnndefcomp_conv2d(conv2d,X):#所有侧边添加1个像素X=X.reshape((1,1)+X.shape)Y=conv2d(X)#torch.Size([1,1,8,8])1通道数,1batch_sizeY.shapereturnY.reshape(Y.shape[2:])#1输入
xcrj
·
2023-01-04 19:22
深度学习
深度学习
人工智能
神经网络
动手学深度学习
09:多输入多输出通道
动手学深度学习
09:多输入多输出通道当我们添加通道时,我们的输入和隐藏的表示都变成了三维张量。例如,每个RGB输入图像具有3×h×w3\timesh\timesw3×h×w的形状。
NUAA_Peter
·
2023-01-04 19:22
深度学习
深度学习
pytorch
计算机视觉
动手学深度学习
08:卷积中的填充与步幅
动手学深度学习
08:卷积中的填充与步幅一个240×240像素的图像,经过10层5×5的卷积后,将减少到200×200像素。如此一来,原始图像的边界丢失了许多有用信息。
NUAA_Peter
·
2023-01-04 19:22
深度学习
深度学习
计算机视觉
cnn
动手学深度学习
(十二)——心跳信号分类预测(天池学习赛)简略
文章目录一、认识数据1.1加载原始数据1.2查看原始数据相关信息1.3查看心跳信号波形原始数据信息整理二、构建pytorch数据集三、构建神经网络四、训练模型五、模型测试:六、后期优化方向天池比赛:零基础入门数据挖掘-心跳信号分类预测主要介绍建模的步骤和思路(借鉴了B榜第一、第七以及各位大佬的部分内容,关于模型融合的部分将在之后的博客继续推出),采用CNN卷积神经网络对提供的一维数据进行训练。一、
留小星
·
2023-01-04 14:18
动手学深度学习:pytorch
卷积
神经网络
pytorch
CNN
数据挖掘
动手学深度学习
:6.7 门控循环单元(GRU)
6.7门控循环单元(GRU)上一节介绍了循环神经网络中的梯度计算方法。我们发现,当时间步数较大或者时间步较小时,循环神经网络的梯度较容易出现衰减或爆炸。虽然裁剪梯度可以应对梯度爆炸,但无法解决梯度衰减的问题。通常由于这个原因,循环神经网络在实际中较难捕捉时间序列中时间步距离较大的依赖关系。门控循环神经网络(gatedrecurrentneuralnetwork)的提出,正是为了更好地捕捉时间序列中
AI_Younger_Man
·
2023-01-04 09:02
#
深度学习
实战Kaggle比赛:图像分类(CIFAR-10) - 《
动手学深度学习
》 - 书栈网 · BookStack...
9.12.实战Kaggle比赛:图像分类(CIFAR-10)到目前为止,我们一直在用Gluon的data包直接获取NDArray格式的图像数据集。然而,实际中的图像数据集往往是以图像文件的形式存在的。在本节中,我们将从原始的图像文件开始,一步步整理、读取并将其变换为NDArray格式。我们曾在“图像增广”一节中实验过CIFAR-10数据集。它是计算机视觉领域的一个重要数据集。现在我们将应用前面所学
weixin_39870238
·
2023-01-04 07:36
kaggle计算机视觉比赛技巧
动手学深度学习
个人笔记-矩阵计算
8月31日若X,Y均为向量,那么求导结果是一个矩阵。情况一:y是一个标量,X是一个列向量,求导结果为行向量。是一个行向量。情况二:Y是一个列向量,x是一个标量,求导结果为列向量。情况二:Y是一个列向量,X是一个列向量,求导结果为矩阵。其中0为全0矩阵,I是对角线为1,其他元素为0的矩阵。
Sjmanman
·
2023-01-03 20:08
动手学深度学习
深度学习
矩阵
人工智能
动手学深度学习
--第二章
数据操作使用MXNet中的NDArray类frommxnetimportnd#引入一些基本创建NDArray操作x=nd.arange(12)#创建一个行向量,从0开始12个整数x.shape#通过shape属性得到元素总数x.size#使⽤reshape函数把⾏向量x的形状改为(3,4)3⾏4列的矩阵x.reshape((3,4))#改变x形状nd.zeros((2,3,4))#生成两个3x4的
七枫98
·
2023-01-03 20:08
动手学深度学习读书笔记
深度学习
动手学深度学习
V2---数据操作+数据预处理
动手学深度学习
V2---数据操作+数据预处理数据操作N维数组样例创建数组访问元素数据操作实现基本操作运算广播机制索引和切片节省内存转换为其他Python对象数据预处理实现读取数据集处理缺失值转换为张量格式感谢李沐老师
-左同学-
·
2023-01-03 20:37
动手学深度学习
python
深度学习
机器学习
动手学深度学习
-------学习记录(2)
自动求梯度将Tensor的属性.requires_grad设置为True,它将追踪在其上的所有操作。完成计算后,可以调用.backward()来完成所有梯度计算,梯度将积累到.grad属性中。Tensor创建一个Tensor并设置.requires_grad=True:x=torch.ones(2,2,requires_grad=True)print(x)print(x.grad_fn)输出:te
三个打一个被反杀你会不会玩
·
2023-01-03 20:07
深度学习
上一页
12
13
14
15
16
17
18
19
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他