E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
动手学深度学习
李沐
动手学深度学习
第二版
《
动手学深度学习
》—
动手学深度学习
2.0.0-beta0documentation(d2l.ai)http://zh.d2l.ai/李沐
动手学深度学习
第二版
ouger爱编程
·
2022-11-20 06:13
深度学习的自我学习和学习资料
深度学习
0824深度学习笔记--李沐《
动手学深度学习
》
目录简单数据操作元素访问元素基本操作数据预处理简单数据操作N维数组是机器学习和神经网络的主要数据结构元素访问比如数组[[1,2,3,4],[5,6,7,8],[9,10,11,12],[13,14,15,16]]访问一个元素:[1,2])(7)访问一行元素:[1,:]([5,6,7,8])访问一列元素:[:,1](2,6,10,14)子区域:[1:3,1:](表示第1行到第3行的开区间结束,即第1
不玩游戏的小菜鸡
·
2022-11-20 06:12
深度学习
人工智能
机器学习
李沐——
动手学深度学习
课后作业
文章目录二、预备知识2.2数据预处理2.3线性代数2.4微积分2.5自动微分二、预备知识2.2数据预处理创建包含更多行和列的原始数据集。删除缺失值最多的列。将预处理后的数据集转换为张量格式。importnumpyasnpimporttorchimportpandasaspddf=pd.read_excel('D:/pycharmdata/data/2-2.xlsx')df.isnull().sum
一——一
·
2022-11-20 06:11
深度学习
深度学习
机器学习
数据挖掘
python
【深度学习】李沐的深度学习笔记来了!
转载自|机器之心去年年初,机器之心知识站上线了亚马逊资深首席科学家李沐博士的「
动手学深度学习
」中文系列课程。这门课从3月持续到8月,超过28000人参与了直播,课程回放在B站的播放量达到了上百万次。
风度78
·
2022-11-20 06:09
人工智能
机器学习
java
深度学习
python
ICLR 2021杰出论文奖公布!8篇论文入选!获奖华人一作14岁保送清华
其中,获奖工作1的一作AstonZhang是《
动手学深度学习
》的作者之一,其余作者有李沐、AlexSmola
Amusi(CVer)
·
2022-11-20 06:36
算法
计算机视觉
机器学习
人工智能
深度学习
李沐
动手学深度学习
d2l
《
动手学深度学习
PyTorch》中的d2lzh_python包的安装方式一d2l_python是
动手学深度学习
PyTorch中的包,所以他的安装使用离线安装。
snowy2002
·
2022-11-20 06:34
#
深度学习
深度学习
pytorch
人工智能
《
动手学深度学习
》入门环境安装
李沐《
动手学深度学习
》纯新手环境安装环境安装(这好像是mxnet我用了一段时间改到pytorch了)第一步第二步第三步第四步第五步pyrorch版环境安装(这好像是mxnet我用了一段时间改到pytorch
yingmi666
·
2022-11-20 05:08
深度学习
python
人工智能
李沐等主编的《
动手学深度学习
》Mxnet-cpu+gpu环境的搭建
一.Mxnet-cpu环境的搭建1.安装miniconda;2.下载本书的全部代码的压缩包,链接:https://www.epubit.com/bookDetails?id=N38286&typeName=%E6%90%9C%E7%B4%A2.3.在电脑某一磁盘创建文件夹“d2l-zh”,并将下载后的代码压缩包解压至该文件夹中,并在该目录文件资源管理器的地址栏输入“cmd”,进入命令行模式4.进入
明德zhuang
·
2022-11-20 04:32
深度学习
mxnet
人工智能
动手学深度学习
第一天
1、安装d2lzh_pytorch该库的下载地址:链接:https://pan.baidu.com/s/1zHovi6T0zaEL5MNwknh56Q密码:grgv下载后得到文件:将整个文件夹移到如下目录中(该处和Windows的路径稍有不同,注意辨别)进行如下两步操作后,直接就可以了。2、nn.Conv2dfromtorchimportnnconv2d=nn.Conv2d(in_channels
狂奔的菜驰
·
2022-11-20 04:30
深度学习初阶
深度学习
python
pytorch
跟李沐学AI
动手学深度学习
环境配置d2l、pytorch的安装 (windows环境、python版本3.7)
我们的任务主要有:配置过程中主要参考了以下文章:https://blog.csdn.net/qq_38311396/article/details/120768038配置详细步骤:第一步:根据操作系统下载并安装MinicondaMiniconda下载地址:(https://conda.io/en/master/miniconda.html)Miniconda安装后出现问题——‘conda’不是内部
阿雪_
·
2022-11-20 04:59
深度学习
安装
深度学习
动手深度学习 李沐 pytorch版本 基于Win10环境配置
动手深度学习李沐pytorch版本基于Win10环境配置前言步骤1.开源书的网址中下载后期学习所用的包2.开始创建前言提示:1.这篇文章用来记录我在B站学习李沐老师的
动手学深度学习
课程中的环境配置过程;
Nommmmmore
·
2022-11-20 04:25
pytorch
深度学习
人工智能
跟李沐老师
动手学深度学习
-01Windows用户搭建本地运行环境
第一步,安装mini-Anaconda。因为我的机器之前已经安装了anaconda,所以这一步略过,有机会我会补充进来;另外,建议刚刚安装好mini-anaconda/anaconda将下载源换成国内源,否则在后续的安装各种依赖包的过程中可能会出现安装失败或者安装巨慢的情况。(李沐老师在安装环境的时候首先是搭配好了在服务器上得运行环境,然后直接将要用的代码下载在了配置好的环境里,而我们Window
?LAST
·
2022-11-20 04:24
动手学深度学习
深度学习
python
人工智能
李沐
动手学深度学习
视频教程 环境配置
声明:本文档来自视频(https://www.bilibili.com/video/av63439164?t=1217)中提到的项目中的install.md。详细描述了各系统的配置教程,本人在学习过程中并没有找到详细的教程,都是东拼西凑配置出来的,过程属实困难。配置好了之后反倒是在项目里找到了完整的配置教程(套娃警告),因此把这个md文档发出来以供参考。获取和运行本书的代码本节将介绍如何获取本书的
木奢
·
2022-11-20 04:52
深度学习
python
亚马逊
李沐
动手学深度学习
v2/总结2
总结编码过程数据数据预处理模型参数,初始化参数超参数损失函数,先计算损失,清空梯度(防止有累积的梯度),再对损失后向传播计算损失关于参数的梯度优化算法,使用优化算法更新参数训练求参数线性回归训练过程#开始训练num_epochs=3forepochinrange(num_epochs):#获取小批量样本forX,yindata_iter:#net中带有w和b,传入x即可l=loss(net(X),
xcrj
·
2022-11-20 04:18
深度学习
深度学习
python
机器学习
李沐
动手学深度学习
v2/总结3
总结行情CV领域已经成熟了,最近都在搞产品,没搞CNN的设计编码过程数据数据预处理模型参数,初始化参数超参数损失函数,先计算损失,清空梯度(防止有累积的梯度),再对损失后向传播计算损失关于参数的梯度优化算法,使用优化算法更新参数训练求参数线性回归训练过程#开始训练num_epochs=3forepochinrange(num_epochs):#获取小批量样本forX,yindata_iter:#n
xcrj
·
2022-11-20 04:18
深度学习
深度学习
python
机器学习
0李沐
动手学深度学习
v2/环境准备
配置miniconda#下载miniconda安装命令文件wgethttps://repo.anaconda.com/miniconda/Miniconda3-py38_4.12.0-Linux-x86_64.sh#安装minicondabashMiniconda3-py38_4.12.0-Linux-x86_64.sh#进入condabase环境,后续都base环境中操作bash#python安
xcrj
·
2022-11-20 04:17
深度学习
深度学习
ubuntu
python
李沐 《
动手学深度学习
》学习笔记(1)Google Colab下的环境配置
李沐《
动手学深度学习
》学习笔记(1)GoogleColab下的环境配置第一部分环境配置第二部分下载资源第三部分开始动手第一部分环境配置#第一部分配置环境fromgoogle.colabimportdrivedrive.mount
Artificial Idiots
·
2022-11-20 04:15
机器学习
李沐的
动手学深度学习
环境配置
目录
动手学深度学习
环境配置1.创建环境:2.安装Pytorch包3.安装d2l包4.创建Kernel
动手学深度学习
环境配置windows系统的环境配置方法(李沐亲授)安装Anaconda、CUDA、Pytorch
巅疯黑羊~
·
2022-11-20 04:42
Python
深度学习
python
pytorch
动手学深度学习
-准备基础
动手学深度学习
-准备基础
动手学深度学习
基础知识:第1章:深度学习背景起源:神经网络核心原则:发展:特点机器学习和深度学习的关系:端到端训练:第2章:
动手学深度学习
的预备知识算法操作:索引:改变形状:线性函数广播机制运算的内存开销
一眼乾年
·
2022-11-20 04:14
Python学习
深度学习
深度学习
人工智能
李沐
动手学深度学习
笔记---AlexNet
简介:更深更大的LeNet主要改进为:丢弃法Dropout、Relu、MaxPooling;激活函数从sigmoid变成了Relu;隐藏全连接层后加入丢弃层;数据增强架构:总体架构:代码实现:importtorchfromtorchimportnnfromd2limporttorchasd2lnet=nn.Sequential(#这⾥,我们使⽤⼀个11*11的更⼤窗⼝来捕捉对象。#同时,步幅为4,
天天向上inger
·
2022-11-20 03:52
李沐动手学深度学习---笔记
深度学习
人工智能
pytorch
李沐-
动手学深度学习
-线性回归
回归(regression)是能为一个或多个自变量与因变量之间关系建模的一类方法。线性模型可以看做是单层神经网络。线性回归是对n维输入的加权,外加偏差。使用平方损失来衡量预测值和真实值的差异。线性回归具有显示解。基础优化算法:梯度下降步骤1:挑选一个初始值w0步骤2:重复迭代参数沿梯度方向将增加损失函数值学习率:步长的超参数学习率:不能太小:效率低;也不能太大:震荡没有下降;总结:梯度下降通过不断
啥都想学点的研究生
·
2022-11-20 03:22
深度学习
线性回归
回归
李沐-
动手学深度学习
-softmax介绍
回归估计一个连续值分类预测一个离散类别1.softmax函数的解释:Softmax从字面上来说,可以分成soft和max两个部分。max故名思议就是最大值的意思。Softmax的核心在于soft,而soft有软的含义,与之相对的是hard硬。很多场景中需要我们找出数组所有元素中值最大的元素,实质上都是求的hardmax。hardmax最大的特点就是只选出其中一个最大的值,即非黑即白。但是往往在实际
啥都想学点的研究生
·
2022-11-20 03:22
深度学习
回归
人工智能
李沐-
动手学深度学习
-图像分类数据集
MNIST数据集是图像中广泛使用的数据集之一,但作为基准数据集过于简单。我们将使用类似但更复杂的Fashion-MNIST数据集。通过框架中的内置函数将Fashion-MNIST数据集下载并读取到内存中。Fashion-MNIST由10个类别的图像组成,每个类别由训练数据集(traindataset)中的6000张图像和测试数据集(testdataset)中的1000张图像组成。因此,训练集和测试
啥都想学点的研究生
·
2022-11-20 03:22
深度学习
分类
机器学习
李沐-
动手学深度学习
n维数组是机器学习和神经网络的主要数据结构。首先导入torch:张量表示一个数值组成的数组,这个数组可能有多个维度arange(x):表示0到x-1的整数数列,左闭右开张量的shape属性来访问张量的形状和张量中元素的总数张量的numel()属性来访问张量中元素的总数(标量)改变一个张量的形状而不改变元素数量和元素值,我们可以调用reshape()函数dtype确定张量的数值类型(dtype=to
啥都想学点的研究生
·
2022-11-20 03:51
深度学习
cnn
人工智能
李沐-
动手学深度学习
笔记-卷积神经网络
参考GitHub文章目录基本理论卷积层卷积层里的填充和步幅多个输入和输出通道做个总结:池化层代码实现:和别人的交流基本理论概念纠正:严格来说,卷积是二维交叉相关。(详见更多在沐神评论区)卷积层根据不同的需求选择不同的矩阵,可以得到不同的效果:唯一的区别是:卷积多了-号,但是因为对称性会导致没啥区别都一样。代码:两层for循环核心就是:遍历输入和卷积核矩阵每个元素相乘再相加。#互相关运算import
东方-教育技术博主
·
2022-11-20 03:16
深度学习
李沐
动手学深度学习
V2- self-attention自注意力机制
一.自注意力机制1.自注意力机制在深度学习中,经常使用卷积神经网络(CNN)或循环神经网络(RNN),自注意力机制对序列进行编码。使用自注意力机制将词元序列输入注意力池化中,以便同一组词元同时充当查询、键和值。具体来说每个查询都会关注所有的键-值对并生成一个注意力输出。由于查询、键和值来自同一组输入,因此被称为自注意力(self-attention)也被称为内部注意力(intra-attentio
cv_lhp
·
2022-11-20 03:06
李沐动手学深度学习笔记
深度学习
自注意力机制
transformer
多头自注意力
self-attention
李沐
动手学深度学习
V2-bert和代码实现
一.BERT(来自Transformers的双向编码器表示)1.介绍BERT通过使用预训练的Transformer编码器,能够基于其双向上下文表示任何词元,在下游任务的监督学习过程中,BERT在两个方面与GPT相似。首先BERT表示将被输入到一个添加的输出层中,根据任务的性质对模型架构进行最小的更改,例如预测每个词元与预测整个序列。其次对预训练Transformer编码器的所有参数进行微调,而额外
cv_lhp
·
2022-11-20 03:06
李沐动手学深度学习笔记
深度学习
bert
自然语言处理
transformer
bert预训练
动手学深度学习
李沐---yield关键字的理解
当时对这个yield的关键字不是很明白,找了很多blog,大致理解就是:yield就是return返回一个值,并且记住这个返回的位置,下次迭代就从这个位置后(下一行)开始。后来发现,哈哈哈确实说的一点不错defdata_iter(batch_size,features,labels):num_examples=len(features)indices=list(range(num_examples
蛋汤里的小葱花
·
2022-11-20 03:54
动手学深度学习
深度学习
python
人工智能
关于
动手学深度学习
扩展包d2l的安装
关于
动手学深度学习
扩展包d2l的安装方式一方式二方式一下载离线安装包直接放置d2l_python是
动手学深度学习
PyTorch中的包,所以他的安装使用离线安装。
windfighting
·
2022-11-20 03:48
深度学习
pytorch
人工智能
weight_decay
最近在B站看沐神的
动手学深度学习
视频,记录一下学习过程查看本文的jupyternotebook格式,更加清晰美观哦!权重衰减权重衰减等价于L2范数正则化。
cherishIntention
·
2022-11-20 03:37
李沐
动手学深度学习
正则化
过拟合
神经网络
机器学习
python
Colab运行沐神《
动手学深度学习
》:ImportError: cannot import name ‘_check_savefig_extra_args‘ from ‘matplotlib.back
原语句:num_epochs=10train_ch3(net,train_iter,test_iter,cross_entropy,num_epochs,updater)报错:ImportError:cannotimportname'_check_savefig_extra_args'from'matplotlib.backend_bases'在终端查看版本:piplistd2l:0.17.5ma
小小白2333
·
2022-11-19 23:41
人工智能
python
深度学习
matplotlib
动手学深度学习
--课堂笔记线性回归的简洁实现
通过深度学习框架来实现线性回归模型1.生成数据集#导入包importnumpyasnpimporttorchfromtorch.utilsimportdata#torch.utils.data中含有处理数据的模块fromd2limporttorchasd2l#真实值true_w=torch.tensor([2,-3.4])true_b=4.2features,labels=d2l.syntheti
weixin_46480637
·
2022-11-19 22:50
深度学习
线性回归
人工智能
动手学深度学习
--课堂笔记softmax回归的从零开始实现
softmax回归是logistic回归的一般形式,logistic回归用于二分类,而softmax回归用于多分类,主要估算输入数据归属于每一类的概率,它输出值个数等于标签中的类别数,是单层神经网络,每个输出的计算依赖于所有的输入。即:1.导入包importtorchfromIPythonimportdisplayfromd2limporttorchasd2lbatch_size=256train
weixin_46480637
·
2022-11-19 22:50
深度学习
回归
动手学深度学习
--课堂笔记线性回归的从零开始实现
1.导入所需的包和模块%matplotlibinlineimportrandomimporttorchfromd2limporttorchasd2l%matplotlibinline:内嵌绘图,将matplotlib的图表内嵌到Notebook里面,省略plt.show()2.建立数据集(用有限样本的数据集来恢复模型的参数)使用线性模型参数w=,b=4.2和噪声项ϵ生成数据集及其标签:y=Xw+b
weixin_46480637
·
2022-11-19 22:49
线性回归
python
算法
深度学习
动手学深度学习
--课堂笔记 autograd
梯度与导数:梯度是某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点出沿着该方向(此梯度的方向)变化最快,变化率最大(为该梯度的模)方向导数:对于多元函数来说,除了沿坐标轴方向上的导数,在非坐标轴方向上也可以求导数,这些导数就是方向导数。导数用来反映某一函数的变化率,某一特定点的导数就是该点的“瞬间斜率”,即切线斜率。所以,在单变量的实值函数中,梯度可简单理解为只是导数,或者说对于一个线
weixin_46480637
·
2022-11-19 22:19
深度学习
人工智能
python
pycharm笔记-
动手学深度学习
(李沐)自动微分课后习题
1、为什么计算二阶导数比一阶导数的开销要更大?因为二阶导数是在一阶导数运算的基础上进行的,所以二阶导数要比一阶导数的开销要大。2、在运行反向传播函数后,立即再次运行它,看看会发生什么?importtorchx=torch.arange(4.0)x.requires_grad_(True)x.grad#默认值为Noney=2*torch.dot(x,x)y.backward()#第一次backwar
weixin_46480637
·
2022-11-19 22:19
深度学习
python
机器学习
图像分类(
动手学深度学习
)
图像分类本教程源代码目录在book/image_classification,初次使用请参考PaddlePaddle安装教程,更多内容请参考本教程的视频课堂。背景介绍图像相比文字能够提供更加生动、容易理解及更具艺术感的信息,是人们转递与交换信息的重要来源。在本教程中,我们专注于图像识别领域的一个重要问题,即图像分类。图像分类是根据图像的语义信息将不同类别图像区分开来,是计算机视觉中重要的基本问题,
聆一
·
2022-11-19 22:42
动手学深度学习
--课堂笔记图片分类数据集
softmax是一个非线性函数,但softmax回归是一个线性模型(linearmodel):是不是线性的是由决策面是否是线性函数决定的,不是由拟合的数据分布决定的。softmax只是对数据分布做了非线性的处理,但它的决策函数形式还是Xw+b的线性形式。Fashion-MNIST数据集:包含70000张灰度图像,其中包含60,000个示例的训练集和10,000个示例的测试集,每个示例都是一个28x
weixin_46480637
·
2022-11-19 21:21
深度学习
人工智能
python
ML/DL入门介绍(底层理解+基本概念)
Datawhale202211—李宏毅《机器学习》(深度学习方向)ML的基本情况+相关技术+学习目标(这里结合了李沐大神的《
动手学深度学习
的部分内容》)文章目录Datawhale202211—李宏毅《机器学习
Beyond_April
·
2022-11-19 19:06
笔记
深度学习
人工智能
算法
深度学习
[深度学习]
动手学深度学习
笔记-6
Task-3——循环神经网络进阶6.1长短期记忆(LSTM)6.1.1理论知识理解理解LSTM网络6.1.2LSTM的从零开始实现以下附上代码:导入相应的包importnumpyasnpimporttorchfromtorchimportnn,optimimporttorch.nn.functionalasFimportsyssys.path.append("..")importd2lzh_pyt
田纳尔多
·
2022-11-19 18:48
深度学习
深度学习
动手学深度学习
:6.8 长短期记忆(LSTM)
6.8长短期记忆(LSTM)本节将介绍另一种常用的门控循环神经网络:长短期记忆(longshort-termmemory,LSTM)[1]。它比门控循环单元的结构稍微复杂一点。6.8.1长短期记忆LSTM中引入了3个门,即输入门(inputgate)、遗忘门(forgetgate)和输出门(outputgate),以及与隐藏状态形状相同的记忆细胞(某些文献把记忆细胞当成一种特殊的隐藏状态),从而记
AI_Younger_Man
·
2022-11-19 18:45
#
深度学习
动手学深度学习
(二十三)——批量归一化(BN)
1.批量归一化 现在的神经网络通常都特别深,在输出层向输入层传播导数的过程中,梯度很容易被激活函数或是权重以指数级的规模缩小或放大,从而产生“梯度消失”或“梯度爆炸”的现象,造成训练速度下降和效果不理想。 第二个是在深度神经网络之中损失都是再最后面,后面的层训练较快(梯度大),但是向后传播的最后的数据处其梯度很小,也就是说后面的层训较慢,而底层的变化会导致全部层的变化,也就致使靠近loss函数
留小星
·
2022-11-19 16:55
动手学深度学习:pytorch
批量归一化
BN
预防过拟合
替代Dropout
深度学习基础
Pytorch入门(5)—— 使用 GPU 进行计算
参考:
动手学深度学习
注意:由于本文是jupyter文档转换来的,代码不一定可以直接运行,有些注释是jupyter给出的交互结果,而非运行结果!!
云端FFF
·
2022-11-19 12:09
#
PyTorch
pytorch
GPU
tensor
module
【MacBook M1】 安装
动手学深度学习
d2l包+jupyter notebook运行
文章目录一、下载d2l包二、jupyternotebook运行1.错误尝试2.正确做法一、下载d2l包这是我主要参考的博客这里假设已经安装好了miniforge3、python、pytorch。为了运行d2l,需要再专门创建一个虚拟环境来跑它的代码。//创建名为d2l的虚拟环境,注意这里的3.10是因为我的python版本是3.10,应该是>=3.8比较合适conda-create-nd2lpyt
青山的青衫
·
2022-11-19 12:08
深度学习
深度学习
jupyter
python
Pytorch自定义网络层
博主在学习了沐神的
动手学深度学习
这本书之后,学到了许多东西。这里记录一下书中基于Pytorch实现简单自定义网络层的方法,仅供参考。一、
ting_qifengl
·
2022-11-19 08:17
深度学习
pytorch
深度学习
人工智能
[深度学习]
动手学深度学习
笔记-2
Task-1线性回归;Softmax与分类模型;多层感知机1.1线性回归原理1.1.1线性回归的基本要素我们以一个简单的房屋价格预测作为例子来解释线性回归的基本要素。这个应用的目标是预测一栋房子的售出价格(元)。我们知道这个价格取决于很多因素,如房屋状况、地段、市场行情等。为了简单起见,这里我们假设价格只取决于房屋状况的两个因素,即面积(平方米)和房龄(年)。接下来我们希望探索价格与这两个因素的具
田纳尔多
·
2022-11-19 08:44
深度学习
深度学习
《
动手学深度学习
》-学习笔记task3
动手学深度学习
-学习笔记task30.学习任务1.过拟合、欠拟合及其解决方案1.1权重衰减1.2丢弃法2.梯度消失和梯度爆炸2.1随机初始化模型参数2.1.1PyTorch的默认随机初始化2.1.2Xavier
紫砂痕
·
2022-11-19 08:42
动手学深度学习
pytorch
深度学习
机器学习
神经网络
深度学习+pytorch自学笔记(三)——线性回归
参考书籍《
动手学深度学习
(pytorch版),参考网址为:https://tangshusen.me/Dive-into-DL-PyTorch/#/请大家也多多支持这一个很好用的平台~大部分内容为书中内容
子非鱼icon
·
2022-11-19 08:35
深度学习自学笔记
python
深度学习
pytorch
算法
李沐
动手学深度学习
-学习笔记之多层感知机
单层感知机→多层感知机:同或门的引用1.多层感知机1.1隐藏层关于隐藏层的理解这篇文章解释的很好,本小白表示看懂了神经网络的隐藏层神经网络的隐藏层_浮生若梦-CSDN博客_隐藏层H=σ(XW(1)+b(1))O=HW(2)+b(2).σ为激活函数并且σ不能为线性函数,如果σ是线性函数那么输出的O也为线性函数,就等价于单层感知机了1.2.激活函数sigmoid函数、tanh函数、ReLU函数ReLU
zizz7177
·
2022-11-19 06:37
动手学深度学习-学习笔记
深度学习
人工智能
机器学习
【
动手学深度学习
Pycharm实现5】多层感知机的简单实现
前言李沐大神源代码是用Jupyter写的,笔者想用Pycharm实现并仅作为学习笔记,如有侵权,请联系笔者删除。一、简介多层感知机跟前面的线性回归模型很像,只不过多了隐藏层,并且隐藏层在输出的时候添加了非线性激活函数(非线性激活函数本质上是为了避免层数塌陷,否则层再多也等价与一层,这里用公式很容易就能推出来)。对于多层感知机的模型建立,理论上一般可以选择两种模式,一是只有一层,一层有很多很多神经元
Stick_2
·
2022-11-19 06:04
深度学习
pycharm
python
神经网络
pytorch
上一页
21
22
23
24
25
26
27
28
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他