E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
动手学深度学习学习整理
《100天一起学习PyTorch》第一天:数据操作和自动求导
个人主页:JoJo的数据分析历险记个人介绍:小编大四统计在读,目前保研到统计学top3高校继续攻读统计研究生如果文章对你有帮助,欢迎✌关注、点赞、✌收藏、订阅专栏参考资料:本专栏主要以沐神《
动手学深度学习
JoJo的数据分析历险记
·
2022-05-09 07:42
pytorch
学习
python
深度学习
机器学习
动手学深度学习
第一课:从上手到多类分类-NDArray
使用NDArrary来处理数据对于机器学习来说,处理数据往往是万事之开头。它包含两个部分:数据读取和当数据已经在内存里时如何处理。本章将关注后者。我们首先介绍NDArray,这是MXNet储存和变化数据的主要工具。如果你之前用过Numpy,你会发现NDArray和Numpy的多维数组非常类似。当然,NDArray提供更多的功能,首先是CPU和GPU的异步计算,其次是自动求导。这两点使得NDArra
weixin_30375247
·
2022-05-08 07:30
人工智能
python
数据结构与算法
【
动手学深度学习
10.15】数据操作NDArray的使用学习
创建NDArray和NumPy的多维数组非常类似。然而,NDArray提供GPU计算和自动求梯度等更多功能,这些使NDArray更加适合深度学习先导入这个模块:frommxnetimportnd创建行向量:x=nd.arange(5)x输出:[0.1.2.3.4.](长度6,一维数组)形状(横,竖),尺寸(一共多少个元素)x.shape'形状(5,)'x.size'尺寸5'改形状:x.reshap
RainbowCoral
·
2022-05-08 07:16
动手学深度学习
深度学习之环境配置--配置d2lzh_pytorch包
d2lzh_pytorch是《
动手学深度学习
》中的包,pytorch原有的包中不包含这个包,因此我们需要单独进行配置。
NEUQ-snowy
·
2022-05-07 11:31
python
深度学习
python
深度学习
【
动手学深度学习
v2笔记】线性回归 + 基础优化算法
线性回归+基础优化算法1线性回归1.1一个简单模型1.2线性模型1.3平方损失1.4训练数据1.5损失函数1.6显式解2基础优化算法2.1梯度下降2.2选择学习率2.3小批量随机梯度下降2.4选择批量大小3线性回归的从零开始实现3.1生成数据集3.2读取数据集3.3初始化模型参数3.4定义模型3.5定义损失函数3.6定义优化算法3.7训练3.8比较参数4线性回归的简洁实现4.1生成数据集4.2读取
南浔Pyer
·
2022-05-07 07:32
Python深度学习
深度学习
线性回归
优化算法
python
《深度学习[Pytorch]》整理01 前馈神经网络——全连接前馈神经网络
FeedforwardNeuralNetwork,FNN)◼第0层为输入层,最后一层为输出层,其他中间层称为隐藏层◼信号从输入层向输出层单向传播,整个网络中无反馈,可用一个有向无环图表示一、线性回归LinearRegression(一)《
动手学深度学习
木夕敢敢
·
2022-05-02 07:03
PyTorch深度学习
python
深度学习
神经网络
pytorch
动手学深度学习
-21 模型微调
模型微调的基本概念(1)什么是模型微调?Step1:假设我们的神经网络符合下面形式:Y=W*XStep2:现在我们要找到一个W,使得当输入X=4时,输出Y=2,也就是希望W=0.5:2=W*4Step3:首先对W要进行初始化,初始化的值服从均值为0,方差为1的分布,假设W初始化为0.2:Y=0.2*XStep4:当输入X=4时,W=0.2,输出Y=0.8,这个时候实际值和目标值2的误差是1.2:1
Xavier学长
·
2022-04-28 07:44
深度学习
pytorch卷积神经网络_知识干货-
动手学深度学习
(pytorch)-06 卷积神经网络基础
卷积神经网络基础本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。二维卷积层本节介绍的是最常见的二维卷积层,常用于处理图像数据。二维互相关运算二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入
weixin_40004057
·
2022-04-25 11:51
pytorch卷积神经网络
填充和跨度——【torch学习笔记】
卷积之填充和跨度引用翻译:《
动手学深度学习
》在上一节的例子中,我们用一个高度和宽度为3的输入和一个高度和宽度为2的卷积核来得到一个高度和宽度为2的输出。
一个语文不好的NLPer
·
2022-04-25 07:43
深度学习——torch学习笔记
神经网络
torch
pytorch
深度学习
卷积
2022 前端性能优化最佳实践
最近在
学习整理
前端性能优化方面的知识,看了很多的文章,感觉文章多了比较零散,学习效率不高,所以在阅读和学习其他优秀博客文章的同时自己做了整理和归纳,与大家一起学习和共勉。
·
2022-04-24 23:37
【考研数据结构】栈
自己
学习整理
的笔记,给自己温故而知新。1.栈说明1.1表和数组表是动态的数据结构,大小可以改变。数组是静态的数据结构,在程序编译的时候它的大小是固定的。1.2栈栈是一种形式的表。是LIFO后进先出的。
只睡四小时
·
2022-04-24 14:24
考研数据结构
数据结构
c++
sparkSql数据离线处理--整理记录
sparkSql数据离线处理前言:本文作为本人学习sparkSql离线数据抽取,离线数据处理的
学习整理
记录,文中参考博客均附上原文链接。
Clown_34
·
2022-04-24 14:50
hive
big
data
hadoop
spark
scala
pytorch 实现人脸检测与识别
实现人脸检测与识别准备工作人脸检测opencv实现人脸检测卷积神经网络CNN实现人脸检测数据导入CNN模型训练人脸检测存在的问题人脸识别获取数据模型训练识别存在的问题总结最近阅读了《DiveintoDeepLearning》(
动手学深度学习
py-d
·
2022-04-24 07:01
卷积神经网络
人脸识别
深度学习
动手学深度学习
(pytorch版本) | 第三章:深度学习基础
文章目录3.1线性回归3.1.1线性回归的节本要素3.1.2线性回归的表示方法3.4softmax回归3.4.5交叉熵损失函数3.4.6模型预测及评价3.4.7小结3.5图像分类数据集(Fashion—MNIST)3.5.1获取数据集3.6softmax回归从零开始实现二、使用步骤1.引入库2.读入数据总结3.1线性回归线性回归输出是一个连续值,因此适用于回归问题。softmax回归则适用于分类问
我是真的菜啊啊
·
2022-04-23 07:45
深度学习
深度学习
pytorch
机器学习
动手学深度学习
(三、深度学习基础--多层感知机、基础知识)
动手学深度学习
(三、深度学习基础--多层感知机、基础知识)1.隐藏层2.激活函数ReLU函数sigmoid函数tanh函数一、多层感知机的从零开始实现多层感知机就是含有至少一个隐藏层的由全连接层组成的神经网络
jiangchao98
·
2022-04-23 07:37
深度神经网络
神经网络
python
机器学习
深度学习
动手学深度学习
笔记(六)——多层感知机及实现
多层感知机(MLP,MultilayerPerceptron)也叫人工神经网络(ANN,ArtificialNeuralNetwork),除了输入输出层,它中间可以有多个隐层。文章目录1.1隐藏层1.2激活函数1.2.1ReLU函数1.2.2sigmoid函数1.2.3tanh函数1.3简洁实现1.1隐藏层通过在网络中加入一个或多个隐藏层来克服线性模型的限制,使其能处理更普遍的函数关系类型,最简单
.别拖至春天.
·
2022-04-22 12:52
动手学深度学习
深度学习
pytorch
python
动手学深度学习
笔记(五)——softmax回归实现
我们发现通过深度学习框架的高级API能够使实现线性回归变得更加容易。同样,通过深度学习框架的高级API也能更方便地实现softmax回归模型。文章目录1.1图像分类数据集1.1.1读取数据集1.1.2读取小批量1.1.3整合所有组件1.2初始化模型参数1.3损失函数1.4优化算法1.5训练1.1图像分类数据集MNIST数据集是图像分类中广泛使用的数据集之一,但作为基准数据集过于简单。我们将使用类似
.别拖至春天.
·
2022-04-22 12:52
动手学深度学习
深度学习
回归
python
动手学深度学习
笔记(四) ——分类问题(softmax回归)
分类问题通常分为两类:硬分类和软分类;硬分类:只对样本的“硬性”类别感兴趣,即属于哪个类别;软分类:即得到属于每个类别的概率;这两者的界限往往很模糊,因为即使我们只关心硬类别,我们仍然使用软类别的模型。文章目录1.1.1分类问题1.1.2网络架构1.1.3softmax运算1.1.4小批量样本的矢量化1.1.5损失函数1.1.5.1对数似然1.1.5.2softmax及其导数1.1.5.3交叉熵损
.别拖至春天.
·
2022-04-22 12:51
动手学深度学习
分类
深度学习
回归
动手学深度学习
笔记(三)——线性回归代码实现
了解线性回归的关键思想之后,始通过代码来动手实现线性回归。文章目录1.1从零开始实现1.1.1生成数据集1.1.2读取数据集1.1.3初始化模型参数1.1.4定义模型1.1.5定义损失函数1.1.6定义优化算法1.1.7训练1.2简洁实现1.2.1生成数据集1.2.2读取数据集1.2.3定义模型1.2.4初始化模型参数1.2.5定义损失函数1.2.6定义优化算法1.2.7训练1.1从零开始实现虽然
.别拖至春天.
·
2022-04-22 12:21
动手学深度学习
深度学习
线性回归
python
JavaScript学习笔记(狂神说)
本文章根据狂神说视频内容
学习整理
1、什么是JavaScript1.1、概述JavaScript是一门世界上最流行的脚本语言Java、JavaScript10天开发出的一个合格的后端人员,必须要精通JavaScript1.2
薛叔不养猫
·
2022-04-21 09:08
java
javaweb
javascript
torch自定义层——【torch学习笔记】
自定义层引用翻译:《
动手学深度学习
》深度学习成功的原因之一是可以在深度网络中使用的广泛的层中找到。这允许了巨大程度的定制和适应。
一个语文不好的NLPer
·
2022-04-21 07:03
深度学习——torch学习笔记
神经网络
深度学习
torch
欠拟合和过拟合——【torch学习笔记】
欠拟合和过拟合引用翻译:《
动手学深度学习
》当我们比较训练和验证误差时,我们要注意两种常见的情况。首先,我们要注意我们的训练误差和验证误差都很大,但两者之间有一点差距的情况。
一个语文不好的NLPer
·
2022-04-16 11:40
深度学习——torch学习笔记
torch
神经网络
深度学习
【PyTorch】
动手学深度学习
-梳理与笔记小结|卷积神经网络
动手学深度学习
-卷积神经网络Refs:参考书籍-《
动手学深度学习
》从FCN到CNN全连接层的应用背景好比是对应于一个m样本n特征属性的mxn维矩阵,在没有任何关于特征交互的先验信息情况下,去寻找特征之间的交互结构
kodoshinichi
·
2022-04-15 07:29
深度学习
#
PyTorch
人工智能
深度学习
pytorch
卷积神经网络
cnn
线性回归底层实现——【torch学习笔记】
从零开始的线性回归实现引用翻译:《
动手学深度学习
》与另一篇添加链接描述实现线性回归——【torch学习笔记】相对应,本篇更偏向于各函数的底层实现。
一个语文不好的NLPer
·
2022-04-14 15:05
深度学习——torch学习笔记
torch
机器学习
线性回归
数学
神经网络
强化学习——连续动作空间与DDPG
本文内容源自百度强化学习7日入门课程
学习整理
感谢百度PARL团队李科浇老师的课程讲解目录1.离散动作VS连续动作2.DDPG3.Actor-Critic结构(评论家-演员)4.目标网络targetnetwork
深海沧澜夜未央
·
2022-04-14 07:43
强化学习
关于李沐
动手学深度学习
(d2l)pytorch环境本地配置
本地安装d2l由于之前试了很多次d2l课本的安装方法失败了,这里提供一种我可以成功安装d2l包的方法。pytorch安装首先安装cuda、cudnn、pytroch(gpu版本)。可以参考这篇文章。神经网络学习小记录48——windows下的torch=1.2.0环境配置_Bubbliiiing的学习小课堂-CSDN博客_神经网络学习小记录神经网络学习小记录48——windows下的torch=1
weixin_42899049
·
2022-04-11 09:27
pytorch
深度学习
神经网络
机器
学习整理
(神经网络)
神经元神经网络由多个神经元组成,其中神经元由几个部分组成:输入、输入权重、输出和激活函数组成,类似于生物神经元的树突、轴突的组成。神经元的输入由左边的神经元输出\(x\)乘以权重\(w\)并加和得到,输出的时候,类似于生物神经元的轴突,将神经元的输出通过激活函数才能传送给接下来的神经元。
北极乌布
·
2022-04-10 19:00
深度学习+pytorch自学笔记(四)——softmax回归
参考书籍《
动手学深度学习
(pytorch版),参考网址为:https://tangshusen.me/Dive-into-DL-PyTorch/#/请大家也多多支持这一个很好用的平台~大部分内容为书中内容
子非鱼icon
·
2022-04-10 00:57
深度学习自学笔记
python
深度学习
pytorch
[Pytorch]<
动手学深度学习
>pytorch笔记-----SoftMax回归
1.引入需求:分类问题让我们考虑一个简单的图像分类问题,其输入图像的高和宽均为2像素,且色彩为灰度。这样每个像素值都可以用一个标量表示。我们将图像中的4像素分别记为x1,x2,x3,x4。假设训练数据集中图像的真实标签为狗、猫或鸡(假设可以用4像素表示出这3种动物),这些标签分别对应离散值y1,y2,y3.我们通常使用离散的数值来表示类别,例如y1=1,y2=2,y3=3。如此,一张图像的标签为1
End1esz
·
2022-04-10 00:27
动手学Pytorch
pytorch
深度学习
机器学习
《
动手学深度学习
+PyTorch》3.6softmax回归的从零开始实现 学习笔记
文章目录前言一、训练集和测试集二、步骤1.引入库2.读取数据3.初始化模型参数4.定义模型5.定义损失函数6.计算分类准确率7.训练模型8.预测总结前言Softmax回归也称多项或多类的Logistic回归,是Logistic回归在多分类问题上的推广。一、训练集和测试集使用上一节获取得到的数据集Fashion-MNIST。二、步骤1.引入库importtorchimporttorchvisioni
稚晖君的小弟
·
2022-04-10 00:45
深度学习
pytorch
逻辑回归
朴素贝叶斯分类——【torch学习笔记】
朴素贝叶斯分类引用翻译:《
动手学深度学习
》在我们担心复杂的优化算法或GPU之前,我们已经可以部署我们的第一个分类器,只依靠简单的统计估计器和我们对条件独立性的理解。学习就是要做假设。
一个语文不好的NLPer
·
2022-04-08 18:27
深度学习——torch学习笔记
机器学习
torch
朴素贝叶斯
手写数字识别
图像分类
《
动手学深度学习
》task2——文本预处理,语言模型,循环神经网络基础笔记
系统学习《
动手学深度学习
》点击这里:《
动手学深度学习
》task1_1线性回归《
动手学深度学习
》task1_2Softmax与分类模型《
动手学深度学习
》task1_3多层感知机《
动手学深度学习
》task2
shiinerise
·
2022-04-08 07:01
深度学习
动手学深度学习
pytorch
文本预处理
语言模型
循环神经网络
Pytorch基本操作(5)——torchvision中的Dataset以及Dataloader
简介在学习李沐在B站发布的《
动手学深度学习
》PyTorch版本教学视频中发现在操作使用PyTorch方面有许多地方看不懂,往往只是“动手”了,没有动脑。
Xujl99
·
2022-04-07 07:24
pytorch
深度学习
pytorch
深度学习
人工智能
Pytorch基本操作(2)——Dataset以及Dataloader
1简介在学习李沐在B站发布的《
动手学深度学习
》PyTorch版本教学视频中发现在操作使用PyTorch方面有许多地方看不懂,往往只是“动手”了,没有动脑。
Xujl99
·
2022-04-07 07:53
pytorch
深度学习
pytorch
深度学习
神经网络
机器学习
学习整理
(一)前言与线性回归
文章目录前言一、简短的预备知识二、线性回归数学推导:基于numpy实现线性回归总结前言博主是一名普通的EE大三学生,专业分流在电子-生医院系,因为实验和工作需要,目前在自学deeplearning,开这个专栏为了用自己的数学知识来解释一些公式推导,巩固自己的知识基础,也希望(可能会)帮到同样在学习的同学。有任何想法或指正都清不吝赐教,希望和大家共同学习ps.1由于这是作为知识拆解&名词解释,便跳过
冬阳thu
·
2022-04-03 07:40
python
机器学习
深度学习
线性回归
目标检测中的边界框(x,y,w,h形式转换与绘制)
目标检测中的边界框(x,y,w,h形式转换与绘制)之前做了个关于yolov4的目标检测项目,对这个领域产生了兴趣,决定系统的学习一下记录来源:李沐老师:
动手学深度学习
在线阅读https://zh-v2.
Joker-Tong
·
2022-03-26 07:52
准研究生的生活
深度学习
pytorch
分类
深度学习
Android Studio基础学习(2)——常见功能控件
此文章是根据b站视频
学习整理
的笔记2p,穿插一些延申的内容原视频标题:手把手教你用AndroidStudio写一个APP,bv号:BV1MK411p7dpButton跳转:*声明控件:privateButtonmBtnLogin
s1915322423
·
2022-03-25 08:59
Android
Studio学习笔记
java
android
studio
《
动手学深度学习
》pytorch版 第二章练习
DiveIntoDeepLearning2.预备知识2.1数据操作第一题第二题2.2数据预处理第一题2.3线性代数第一题第二题第三题第四题第五题第六题第七题第八题2.4微积分第一题第二题第三题第四题2.5自动微分第一题第二题第三题第四题第五题2.6概率第一题第二题第三题第四题(刚刚开始学习深度学习,争取把节课的练习都记录下来,菜鸡一个,如果哪个地方有错误或是没有理解到位烦请各位大佬指教)2.预备知
Canon-H
·
2022-03-24 07:24
深度学习
pytorch
python
[
动手学深度学习
(PyTorch)]——自动求导
一、自动求导自动求导计算一个函数在指定值上的导数1、计算图显示构造:TensorFlow、Theano、MXNet隐式构造:PyTorch2、自动求导的两种模式正向传播:就是先从x出发,u1关于x的导数求出来,借助链式求导法则,此时就可以求u2关于x的导数反向传播:就是先从y出发.二、自动求导的实现x.requires_grad_(bool):是否需要定义空间保存梯度信息x.grad:该属性用来获
Star星屹程序设计
·
2022-03-24 07:23
动手学深度学习
深度学习
pytorch
动手学深度学习
——矩阵求导之自动求导
深度学习框架通过自动计算导数,即自动微分(automaticdifferentiation)来加快求导。实际中,根据我们设计的模型,系统会构建一个计算图(computationalgraph),来跟踪计算是哪些数据通过哪些操作组合起来产生输出。自动微分使系统能够随后反向传播梯度。这里,反向传播(backpropagate)意味着跟踪整个计算图,填充关于每个参数的偏导数。下面的求导计算多是采用分子布
时生丶
·
2022-03-24 07:17
深度学习笔记
矩阵
线性代数
深度学习
【李沐:
动手学深度学习
pytorch版】第2章:预备知识
第2章预备知识2.1数据操作2.1.1入门导入的是torch而不是pytorchimporttorch一个数叫标量一个轴叫向量两个轴叫矩阵arange#生成行向量x=torch.arange(12)xtensor([0,1,2,3,4,5,6,7,8,9,10,11])shapex.shape#访问张量的形状torch.Size([12])numel()#访问张量中元素的个数x.numel()12
zdb呀
·
2022-03-24 07:14
#
动手学深度学习
pytorch
深度学习
python
深度学习PyTorch笔记(9):自动求导
深度学习PyTorch笔记(9):自动求导4.自动求导4.1理解4.2梯度4.3.requires_grad与.grad_fn4.4调用.backward()反向传播来完成所有梯度计算这是《
动手学深度学习
三耳01
·
2022-03-24 07:43
深度学习
pytorch
深度学习
python
动手学深度学习
——自动求导|CSDN创作打卡
自动求导一、计算图二、构造三、自动求导代码使用一、计算图1.正向2.反向3.复杂度正向和反向的计算复杂度都是O(n)。因为计算梯度都需要遍历一遍图。正向的内存复杂度为O(1),而反向的为O(n),因为反向是需要正向一遍来保存中间值的,中间值占掉了空间。二、构造1.显示构造(Tensorflow/theano/MXNet)先构造好公式(计算图),然后在带入数值计算,一般数学上都是属于显示构造。2.隐
caroline~按
·
2022-03-24 07:13
深度学习
深度学习
pytorch
机器学习
李沐
动手学深度学习
-07自动求导
07自动求导对于矩阵的求导可以使用函数自动实现,但是还是需要学习一下具体的过程。链式法则等导数计算方法,截图主要用于帮助理解反向传递正向和反向的计算方法相比,在时间复杂度上两者并没有太大的查遍,但是内存复杂度不同,正向传递需要把所有结果都存下来,需要消耗大量的GPU内存资源。x=torch.arange(4.0)print(x)x.requires_grad_(True)#等价于x=torch.a
Allure丶憨憨
·
2022-03-24 07:41
李沐深度学习
python
pytorch
深度学习
【
动手学深度学习
】00-矩阵求导和自动求导
1.矩阵求导1.1标量导数(高中知识)都是高中的知识1.2亚导数将导数拓展到不可导的情况1.3梯度将导数扩展到向量1.3.1∂y/∂x\partialy/\partial\mathbf{x}∂y/∂x底部是向量,上部是标量由于向量在底部,所以求导之后结果的向量会反过来样例为下:特别的就是,两个向量的内积为矩阵,sum一个向量,其导数为向量1的转置注意,对于∂∂w=xT\frac{\partial}
zhaoylai
·
2022-03-24 07:10
动手学深度学习
矩阵
深度学习
线性代数
pytorch
动手学深度学习
pytorch学习笔记
2.3自动求梯度不允许Tensor对Tensor求导,只允许标量Scalar对张量Tensor求导,求导结果是和自变量同型的Tensor。torch.autograd.backward(y,w),或者说y.backward(w)的含义是:先计算l=torch.sum(y*w),然后求l对(能够影响到y的)所有变量x的导数。这里,y和w是同型Tensor。也就是说,可以理解成先按照w对y的各个分量加
UHL1107
·
2022-03-24 07:07
神经网络
深度学习
自动求导
动手学深度学习
pytorch
例子:importtorchx=torch.arange(4.0)xtensor([0.,1.,2.,3.])x.requires_grad_(True)#x=torch.arange(4.0,requires_grad=True)x.grady=2*torch.dot(x,x)ytensor(28.,grad_fn=)y.backward()x.gradtensor([0.,4.,8.,12.]
AI架构师易筋
·
2022-03-24 07:03
李沐动手学深度学习
自动求导
pytorch
机器
学习整理
(逻辑回归)
二分类问题问题定义:给定一些特征,给其分类之一。假设函数\(h(x)\)定义:\[h(x)=g(\theta^Tx)\]\[g(z)=\dfrac{1}{1+e^{-z}}\]决策边界:当\(h(x)>=0.5\)的时候,y更有可能预测为1。当\(h(x)<0.5\)的时候,y更有可能预测为0。当z的值为0,也就是\(\theta^Tx\)=0时就是区分两种分类的决策边界。决策边界可能是直线,也有
北极乌布
·
2022-03-23 00:00
图像分类篇:实现pytorch官网demo(LeNet)
跟着b站up主
学习整理
:2.1pytorch官方demo(Lenet)_哔哩哔哩_bilibili目录一、CNN的雏形——LeNet网络结构二、官网demo文件三、代码实现1.model.py2.train.py3
cc巴巴布莱特
·
2022-03-22 17:26
pytorch
分类
深度学习
《
动手学深度学习
PyTorch版》打卡_Task3,过拟合,欠拟合,梯度消失,梯度爆炸
最近参加了伯禹平台和Datawhale等举办的《
动手学深度学习
PyTorch版》课程,对过拟合,欠拟合,梯度消失,梯度爆炸做下笔记。
kanatappi
·
2022-03-22 17:55
动手学深度学习PyTorch版
神经网络
pytorch
深度学习
上一页
39
40
41
42
43
44
45
46
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他