E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
动手学深度学习课堂笔记
Softmax分类以及交叉熵详解
Softmax分类以及交叉熵详解Softmax分类写这篇文章的目的是记录下实现分类时所遇到的问题在李沐的
动手学深度学习
中有这样的代码y=torch.tensor([0,2])y_hat=torch.tensor
深度学习渣
·
2023-01-02 13:23
分类
深度学习
pytorch
《
动手学深度学习
》课后习题1
《动手学》:线性回归**1.**假如你正在实现一个全连接层,全连接层的输入形状是7×8,输出形状是7×1,其中7是批量大小,则权重参数w和偏置参数b的形状分别是____和____答案:8×1,1×12.课程中的损失函数定义为:defsquared_loss(y_hat,y):return(y_hat-y.view(y_hat.size()))**2/2将返回结果替换为下面的哪一个会导致会导致模型无
极客阿宝
·
2023-01-02 13:53
深度学习
神经网络
算法
深度学习 笔记(线性神经网络)
3.1.线性回归—
动手学深度学习
2.0.0-beta1documentation目录3.1.线性回归—
动手学深度学习
2.0.0-beta1documentation3.1线性回归3.1.1线性回归的基本元素
han_lx、
·
2023-01-02 13:21
某han的深度学习笔记
深度学习
神经网络
机器学习
学习笔记7:关于softmax回归的一些理解(未完)
课程:李沐《
动手学深度学习
v2》本节课件:softmax回归的从零开始实现一、方括号再方括号就是上图用红色方框圈出来的地方。
Asdzxcyuihjkqwe
·
2023-01-02 13:18
学习笔记
回归
学习
机器学习
纯小白
动手学深度学习
之细致解析(1)内容及介绍及安装
前言作者来自北京某不知名985,现在是本科在读学生,专业是数据科学与大数据技术,班上同学都太卷了,没办法,需要学习深度学习,经大佬介绍,在B站上找到了一个很不错的资源,李沐老师的《
动手学深度学习
v2》,
Trafalger D Water Law
·
2023-01-02 10:11
动手学深度学习
人工智能
python
conda
anchor——锚框详细介绍与实现
本文章参考
动手学深度学习
一书,主要使用的是mxnet深度学习模块,在jupyter上进行实现。
心无旁骛~
·
2023-01-01 14:43
深度学习之目标检测
深度学习基础
python
numpy
深度学习
softmax回归和交叉熵损失函数
本文章参考
动手学深度学习
一书,主要使用的是mxnet深度学习模块,在jupyter上进行实现。softmax回归线性回归模型适用于输出为连续值的情景。
心无旁骛~
·
2023-01-01 14:43
深度学习之目标检测
深度学习基础
回归
python
《
动手学深度学习
》(PyTorch版)要点笔记 - 2 【3.11.1 训练误差和泛化误差】
目录训练误差泛化误差总结训练误差训练误差(trainingerror):模型在训练数据集上表现出的误差泛化误差泛化误差(generalizationerror):模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似总结一味地降低训练误差并不意味着泛化误差一定会降低。机器学习模型应关注降低泛化误差。
Hurri_cane
·
2023-01-01 14:41
深度学习
机器学习
神经网络
人工智能
深度学习优化算法:梯度下降GD、随机梯度下降SGD、小批量梯度下降MBGD、动量法(momentum)
原文链接:
动手学深度学习
pytorch版:优化算法7.1-7.4github:https://github.com/ShusenTang/Dive-into-DL-PyTorch最好去看一下原书和GitHub
ywm_up
·
2023-01-01 11:12
NLP/ML/DL
pytorch
深度学习
优化算法
梯度下降
动量法
CUDA和Pytorch(GPU版)安装问题解决
PyTorchCUDA官网:CUDAToolkit11.7Update1Downloads|NVIDIADeveloperB站Up跟李沐学AI的vedio:Windows下安装CUDA和Pytorch跑深度学习-
动手学深度学习
想要有书读
·
2022-12-31 16:45
pytorch
深度学习
python
动手学深度学习
V2——李沐Bilibili直播视频Jupyter Notebook安装
在哔哩哔哩上发现李沐是视频直播讲解《动手学深度V2》-Pytorch,准备按照视频中的安装教程来搭建一个新的虚拟环境d2l,李沐使用的是JupyterNotebook而不是Pycharm,在安装学习中了解到二者都是Python代码编辑器,可根据不同的项目需求进行选择,二者不能混为一谈。安装开始按照书中的步骤安装了Python3.8和torch和torchvision最新的版本,运行后提示cuda版
wangcan2166
·
2022-12-31 15:23
Python
深度学习环境搭建-整理参考链接
1、李沐深度学习课程安装动手深度学习–windows环境安装李沐《
动手学深度学习
》学习笔记(2)windows10下的环境配置李沐
动手学深度学习
视频教程环境配置2、Windows搭建gpu或者cpu版本的
码农小C
·
2022-12-31 15:19
DeepLearning
深度学习
神经网络
pytorch
【
动手学深度学习
】0
前言自学笔记一、学习准备:贴出李沐老师标明的资源:1、课程主页:https://courses.d2l.ai/zh-v22、教材:https://zh-v2.d2l.ai/3、课程论坛讨论:https://discuss.d2l.ai/c/164、Pytorch论坛:https://discuss.pytorch.org/二、为什么想学这门课?What:深度学习里有哪些技术How:如何实现调参Wh
Roar_Ryoma
·
2022-12-31 15:17
动手学深度学习笔记
深度学习
动手学深度学习
-2021.11.09
动手学深度学习
-2021.11.09线性回归从零开始实现pytorch,环境还没弄,先学着原理李沐学AI每天一个模块代码块学习导入相关模块%matplotlibinline//绘图函数importrandomimporttorchfromd2limporttorchasd2l
Anday33
·
2022-12-31 15:17
深度学习
pytorch
python
李沐
动手学深度学习
环境搭建
李沐
动手学深度学习
环境搭建1环境我的环境是ubuntu18.04,在腾讯云上买的轻量云服务器进行使用,没有GPU,前几章可以正常使用,后面用到GPU就不好使了。可以作为一个快速上手的过渡版本。
NUAA_Peter
·
2022-12-31 15:14
技术博客
深度学习
深度学习
人工智能
动手学深度学习
李沐
第三次课堂+第二次任务预习笔记(0316任务)
0316
课堂笔记
cp拷贝MV移动目录结构:http://www.appelearn.com/study_v2/linux_dir_tree.jpg不管是CPMV如果右边是一个目录,一定要加一个/,比如cp123abc
weixin_40876986
·
2022-12-31 11:42
课堂笔记和预习笔记
linux
linux
运维
2018.5.11
课堂笔记
系统目录结构:tree:直接输入tree命令就会自动以树形形式列出当前的目录的文件和文件夹,不加任何参数,它会列出当前目录下所有深度级别的文件和目录。tree--hep显示常用选项man(用来显示一个文件的帮助文档)使用格式为:man(查看的命令)一般情况下输入tree会显示:[root@localhost~]#tree-bash:tree:未找到命令[root@localhost~]#这个时候我
chuangshuo0864
·
2022-12-31 11:02
操作系统
python
运维
2018.5.26
课堂笔记
文档的压缩与打包常见压缩文件Windows:.rar.zip.7ZLinux:.zip,.gz,bz2,.xz,.tar.gz,tar.bz2,.tar.xz一、压缩打包工具常见的压缩文件:1、.gzip.gz.bz2.xz.tar.gz.tar.bz2.tar.xzgzip压缩工具(不可压缩目录)命令格式为:gzip[-d#]filename,其中#为1~9数字-d:该参数在解压缩时使用-#:表
chuangshuo0864
·
2022-12-31 11:02
操作系统
运维
数据结构与算法
机器学习
课堂笔记
(二)------简单线性回归法
一.简单线性回归法简单线性回归法主要解决回归问题,就是在已知一些数据的情况下,找大最契合已知数据的直线方程:y=ax+b。寻找一条直线,可以最大程度上拟合样本特征和样本输出的关系。例如,对于上述一次方程,当我们实现该模型后,输入一个房屋面积就可以通过此来预测房屋价格。那么我们需要的就是找到a,b两个参数,计算a,b的过程也就是训练的过程。如上图所示,每一个x(i)都有一个真实值y(i)和一个预测值
dirtyboy6666
·
2022-12-31 09:22
python
机器学习
python
人工智能
算法
鲲鹏Devkit代码迁移工具
课堂笔记
—第二讲:手把手带你使用代码迁移工具实现源码迁移
华为账号hw_Zixin,严禁直接盗用侵权!1.源码迁移介绍目标:了解迁移工具,提升工作效率。实验准备在鲲鹏社区申请远程实验室操作系统选择OpenEuler。https://www.hikunpeng.com/zh/developer/devkit在收到申请成功邮件后根据邮件指引链接VPN(具体账号与密码见邮件信息)3.访问邮件中的代码迁移工具WEB地址,输入邮件提供的用户名与密码4.进入代码迁移
华为账号hw_Zixin 小鱼儿梦想+
·
2022-12-31 08:31
鲲鹏DevKit
服务器
运维
鲲鹏Devkit代码迁移工具
课堂笔记
—第一讲:鲲鹏代码迁移工具介绍
华为账号hw_Zixin,严禁直接盗用侵权!1.代码迁移工具功能主要包括软件迁移评估、源码迁移、软件包重构、专项软件迁移、鲲鹏亲和分析功能。软件迁移评估可以检查用户在x86服务程上已安装的软件,识别依赖关系,并提供鲲鹏兼容版本依赖对应rpm的包OS发行版官方下载链接检查用户在x86服务器上已安装的软件,识别依赖关系,并提供鲲鹏兼容版本的so依赖库对应rpm的包OS发行版官方下载连接。源码迁移检查用
华为账号hw_Zixin 小鱼儿梦想+
·
2022-12-31 08:01
鲲鹏DevKit
迁移学习
李沐
动手学深度学习
V2-图像增广和代码实现
图像增广大型数据集是成功应用深度神经网络的先决条件,因为解决了大型复杂网络的过拟合性。图像增广在对训练图像进行一系列的随机变化之后,生成相似但不同的训练样本,从而扩大了训练集的规模。此外,应用图像增广的原因是,随机改变训练样本可以减少模型对某些属性的依赖,从而提高模型的泛化能力。例如,我们可以以不同的方式裁剪图像,使感兴趣的对象出现在不同的位置,减少模型对于对象出现位置的依赖。我们还可以调整亮度、
cv_lhp
·
2022-12-31 00:23
李沐动手学深度学习笔记
深度学习
计算机视觉
python
pytorch
神经网络
机器学习算法笔记(1)——逻辑斯蒂回归Logistic处理二分类任务
LogisticRegressor处理二分类任务一.逻辑斯蒂回归1.模型2.代价函数(损失函数)3.优化算法二.代码实现1.二维二分类2.多维二分类本系列为观看吴恩达老师的[中英字幕]吴恩达机器学习系列课程做的
课堂笔记
念旧NiceJeo
·
2022-12-30 16:54
机器学习算法笔记
算法
机器学习
python
可视化
RNN学习-序列模型预测实战
一、任务构建一个序列,1000个模拟sin的数据,加上normal噪声利用一个双线性层来训练得到的结果分别利用单步、自预测和多步预测对比思路参考:李沐《
动手学深度学习
》附加说明:由于是练习,所以内容实现全部用自己构建的函数实现
自在犹仙
·
2022-12-30 14:09
深度学习集训
rnn
学习
深度学习
最早的90后程序员已经31岁,最早的00后已进BAT大厂,你在哪里?
学习上非常刻苦,每天第一个到教室,每次都坐第一排,是班里少数的会做
课堂笔记
的学生之一。在几天前,我看见他发朋友圈晒了Offer,于是私下和他交流了一下。
程序员二黑.
·
2022-12-30 12:33
软件测试
自动化测试
测试工程师
性能测试
功能测试
权重衰减 - 《
动手学深度学习
》 - 书栈网 · BookStack...
3.12.权重衰减上一节中我们观察了过拟合现象,即模型的训练误差远小于它在测试集上的误差。虽然增大训练数据集可能会减轻过拟合,但是获取额外的训练数据往往代价高昂。本节介绍应对过拟合问题的常用方法:权重衰减(weightdecay)。3.12.1.方法权重衰减等价于范数正则化(regularization)。正则化通过为模型损失函数添加惩罚项使学出的模型参数值较小,是应对过拟合的常用手段。我们先描述
weixin_39922151
·
2022-12-30 11:17
深度学习的权重衰减是什么
深度学习的权重衰减是什么_
动手学深度学习
13-权重衰减
上一节中提提到的过拟合现象,在模型的训练误差远小于测试集上的误差。虽然增大训练接数据集可以减轻过拟合,但是获得额外的训练数据往往代价过大,本节介绍过拟合常用的方式:权重衰减(weightdecay)。权重衰减权重衰减等价于L2范数正则化(regularzation)。正则化通过模型损失函数添加惩罚项使学到的模型参数值较小,是应对过拟合的常用方法,我们先描述L2范数正则化,再解释它为何称为权重衰减。
weixin_39750195
·
2022-12-30 10:47
深度学习的权重衰减是什么
(一)学习笔记:
动手学深度学习
文章目录前言1.AI地图2.深度学习在应用上的突破2.1图片分类2.2物体检测和分割2.3样式迁移2.4人脸合成2.5文字生成2.6无人驾驶3.案例研究------广告点击3.1问题背景3.2步骤3.3机器学习的在其中的应用3.4完整的故事前言时至今日,我们常用的计算机程序几乎都是软件开发人员从零编写的。比如,现在我们要编写一个程序来管理网上商城。经过思考,我们可能提出如下一个解决方案:首先,用户
卡拉比丘流形
·
2022-12-30 10:44
深度学习
深度学习
人工智能
【
动手学深度学习
】12.权重衰减--防止过拟合
1、方法权重衰减等价于L2范数正则化。正则化通过为模型损失函数添加惩罚项使学出的模型参数值较小,是应对过拟合的常用手段。原始损失函数如下:带有L2范数惩罚项的新损失函数为:较⼩的λ值对应较少约束的w,⽽较⼤的λ值对w的约束更⼤计算梯度方法:理解:1、正则项就是防止达到损失函数最优导致过拟合,把损失函数最优点往外拉一拉。2、损失函数加上正则项成为目标函数,目标函数最优解不是损失函数最优解。train
ShadoooWM
·
2022-12-30 10:12
动手学深度学习课堂笔记
深度学习
机器学习
人工智能
李沐
动手学深度学习
V2-双向循环神经网络Bidirectional RNN和代码实现
一.双向循环神经网络和代码实现1.介绍在序列学习中,以往假设的目标是:在给定观测的情况下(例如在时间序列的上下文中或在语言模型的上下文中),对下一个输出进行建模,虽然这是一个典型情景,但不是唯一的,例如我们考虑以下三个在文本序列中填空的任务:我___。我___饿了。我___饿了,我可以吃半头猪。根据可获得的信息量,我们可以用不同的词填空,如“很高兴”(“happy”)、“不”(“not”)和“非常
cv_lhp
·
2022-12-30 10:06
李沐动手学深度学习笔记
rnn
双向循环神经网络
lstm
gru
深度学习
动手学深度学习
v2-pytorch神经网络基础
层和块:importtorchfromtorchimportnnfromtorch.nnimportfunctionalasFnet=nn.Sequential(nn.Linear(20,256),nn.ReLU(),nn.Linear(256,10))X=torch.rand(2,20)net(X)nn.Sequential定义了一种特殊的ModuleModule任何一个层和神经网络应该都是Mo
Hzt_dreamer
·
2022-12-30 08:47
pytorch
神经网络
深度学习
动手学深度学习
(现代卷积神经网络学习笔记)
现代卷积神经网络之前的传统的机器学习方式,是传入人工制作选取的图像特征作为输入,训练后送入分类器中,如今是原始图像(可能裁剪)输入网络进行训练。计算机视觉研究人员相信,从对最终模型精度的影响来说,更大或更干净的数据集、或是稍微改进的特征提取,比任何学习算法带来的进步要大得多。大纲主要有以下结构,学习这些结构,包含的思想,有助于以后自己网络模型的搭建AlexNet。它是第一个在大规模视觉竞赛中击败传
遥感人遥感魂
·
2022-12-30 07:14
动手学深度学习
深度学习
cnn
学习
[Pytorch]<
动手学深度学习
>pytorch笔记-----线性回归
1.房屋价格预测的模型建立1.1数学定义设房屋的面积为,房龄为,售出价格为y。我们需要建立基于输入和来计算输出y的表达式,也就是模型(model)。顾名思义,线性回归假设输出与各个输入之间是线性关系:其中和是权重(weight),b是偏差(bias),且均为标量。它们是线性回归模型的参数(parameter)。模型输出是线性回归对真实价格y的预测或估计。我们通常允许它们之间有一定误差。1.2模型训
End1esz
·
2022-12-30 03:30
动手学Pytorch
pytorch
深度学习
机器学习
《
动手学深度学习
》7.4. 含并行连结的网络(GoogLeNet)
《
动手学深度学习
》7.4.含并行连结的网络(GoogLeNet)1.训练部分导入功能包importtorchfromtorchimportnnfromtorch.nnimportfunctionalasFfromtorchsummaryimportsummaryimportMyFunctionasMFInception
whut_52xj
·
2022-12-29 23:16
动手学深度学习第二版
深度学习
pytorch
【
动手学深度学习
PyTorch版】19 含并行连结的网络 GoogLeNet / Inception V3
上一篇请移步【
动手学深度学习
PyTorch版】17深度卷积神经网络AlexNet_水w的博客-CSDN博客【
动手学深度学习
PyTorch版】18使用块的网络VGG_水w的博客-CSDN博客【
动手学深度学习
水w
·
2022-12-29 23:42
#
深度学习
深度学习
pytorch
python
动手学深度学习
——含并行连结的网络GoogLenet
1、网络结构2、Inception块四个路径从不同层面抽取信息,然后再输出通道维合并。4条线路都使⽤了合适的填充来使输⼊与输出的⾼和宽⼀致。第一个Inception块,显示通道数,降低通道数来控制模型复杂度;每条路上通道数可能不同。跟3x3或者5x5卷积层比,Inception块有更少的参数个数和计算复杂度。3、GoogLenet5段,9个Inception块(1)段1和2更小的宽口,更多的通道。
橙子吖21
·
2022-12-29 23:12
动手学深度学习
深度学习
人工智能
神经网络
pytorch
32李沐
动手学深度学习
v2/含并行连结的网络,GoogLeNet
Inception块importtorchfromtorchimportnnfromtorch.nnimportfunctionalasFfromd2limporttorchasd2l#GoogLeNet的v1版本的inception块classInception(nn.Module):def__init__(self,in_channels,c1,c2,c3,c4,**kwargs):'''in
xcrj
·
2022-12-29 23:08
深度学习
网络
深度学习
cnn
动手学深度学习
系列笔记02预备知识-02数据预处理pandas
读取数据集注释#@save是一个特殊的标记,该标记下方的函数、类或语句将保存在d2l软件包中,以便以后可以直接调用它们(例如d2l.mkdir_if_not_exist(path))而无需重新定义将数据集按行写入csv文件中。importosos.makedirs(os.path.join('/home','data'),exist_ok=True)#确保目录存在data_file=os.path
kira_Y
·
2022-12-29 20:19
动手学深度学习
pytorch
python
python
计算机视觉
《
动手学深度学习
》之深度卷积神经网络(AlexNet)
参考深度卷积神经网络(AlexNet)importtimeimporttorchfromtorchimportnn,optimimporttorchvisionimportsyssys.path.append("..")importd2lzh_pytorchasd2ldevice=torch.device('cuda'iftorch.cuda.is_available()else'cpu')cla
乾巽
·
2022-12-29 17:44
pytorch深度学习
神经网络
卷积
深度学习
卷积神经网络
动手学深度学习
(四十三)——机器翻译及其数据构建
文章目录一、机器翻译二、机器翻译数据集1.下载和预处理数据集1.1文本预处理1.2词元化[tokenization](https://zhuanlan.zhihu.com/p/371300063)1.3词汇表([wordembedding](https://www.zhihu.com/question/32275069))2.加载数据集小结练习 这篇Blog开始介绍翻译,都是NLP的相关内容,翻
留小星
·
2022-12-29 15:12
动手学深度学习:pytorch
机器翻译
深度学习
自然语言处理
【
动手学深度学习
v2】注意力机制—2 使用注意力机制Seq2Seq
使用注意力机制的seq2seq动机Seq2Seq+Attention(Bahdanau注意力模型)总结参考系列文章在【
动手学深度学习
v2】注意力机制—1注意力评分函数,讲解了注意力评分函数的两种形式,但未阐明何为
Hannah2425
·
2022-12-29 14:49
DeepLearning
深度学习
神经网络
人工智能
《
动手学深度学习
》tensorflow2.0版 第三章笔记
《
动手学深度学习
》tensorflow2.0版第三章笔记线性回归训练图像分类数据集(Fashion-MNIST)训练误差(trainingerror)和泛化误差(generalizationerror)
「已注销」
·
2022-12-28 18:08
神经网络与深度学习
tensorflow
深度学习
机器学习
python
神经网络
动手学深度学习
---从全连接层到卷积层篇
卷积神经网络1.从全连接层到卷积层前言:MLP适合处理表格数据,行对应样本,列对应特征。但对于高维感知数据,就会变得不实用(数据量过于庞大,需要大量GPU和耐心)采用卷积神经网路(convolutionalneuralnetworks,CNN)时机器学习利用自然图像中一些已知结构的创造性方法不变性不变性意味着即使目标的外观发生了某种变化,但是你依然可以把它识别出来。这对图像分类来说是一种很好的特性
yijie_01
·
2022-12-28 16:21
动手学深度学习
深度学习
计算机视觉
人工智能
【计算机网络】湖科大微
课堂笔记
p47-49 IPv4地址的应用规划、IP数据报的发送和转发过程、静态路由配置及其可能产生的路由环路问题
文章目录IPv4地址的应用规划小结IP数据报的发送和转发过程小结一些例题静态路由配置及其可能产生的路由环路问题小结IPv4地址的应用规划定长的子网掩码FLSM变长的子网掩码VLSM定长的子网掩码FLSM举例说明:注意,两个路由器之间也要看成是一个网络。因为要划分为5个子网,所有主机号中要借用3个比特作为子网号——23=8>5.此时每个子网上的地址数量为:2(8-3)=32,也可以满足。开始划分子网
karshey_v
·
2022-12-28 15:42
网络
网络协议
计算机网络
动手学深度学习
之经典的卷积神经网络之VGG
VGGVGG块深vs宽5*5卷积3*3卷积深但窄效果更好VGG块3*3卷积(填充1)(n层,m通道)。也就是说一个VGG块中可以有n个卷积层,每个卷积层的通道数都是一样的2*2最大池化层(步幅2)。每个VGG块的最后一层VGG架构其实就是替换掉AlexNet的整个卷积的部分在多个VGG块之后连接全连接层不同次数的重复块得到不同的架构VGG-16,VGG-19…进度总结VGG有两个思想影响了后来的研
哈哈哈捧场王
·
2022-12-28 10:36
机器学习&深度学习
【
动手学深度学习
】使用块的网络(VGG)
经典卷积神经网络VGG介绍激活函数ReLu函数实现VGG-11tf.keras.layers.Conv2D()f.keras.layers.MaxPool2D()定义块卷积层部分全连接层tf.keras.layers.Flatten()tf.keras.layers.Dense()查看每个层输出的形状构建通道数较少的网络定义学习率、轮次和批大小训练结果介绍经典卷积神经网络的基本组成部分是下面的这个
往阳光走
·
2022-12-28 08:50
深度学习
网络
神经网络
【
动手学深度学习
PyTorch版】18 使用块的网络 VGG
上一篇请移步【
动手学深度学习
PyTorch版】17深度卷积神经网络AlexNet_水w的博客-CSDN博客目录一、使用块的网络VGG1.1AlexNet--->VGG◼VGG网络简介1.2VGG架构1.3
水w
·
2022-12-28 08:48
#
深度学习
深度学习
pytorch
python
神经网络
网络
Pytorch 使用块的网络 VGG
Pytorch使用块的网络VGG0.环境介绍环境使用Kaggle里免费建立的Notebook教程使用李沐老师的
动手学深度学习
网站和视频讲解小技巧:当遇到函数看不懂的时候可以按Shift+Tab查看函数详解
哇咔咔负负得正
·
2022-12-28 08:17
#
CV
pytorch
动手学深度学习
———使用块的网络VGG
1、VGG块VGG块的组成规律是:连续使用数个相同的填充为1、窗口形状为2×2的最大池化层。卷积层保持输入的高和宽不变,而池化层则对其减半。我们使用vgg_block函数来实现这个基础的VGG块,它可以指定卷积层的数量和输入输出通道数。2、VGG架构多个VGG块后接全连接层;不同次数的重复块得到不同的架构VGG-16、VGG-19,...3、VGG网络与AlexNet和LeNet一样,VGG网络由
橙子吖21
·
2022-12-28 08:17
动手学深度学习
深度学习
网络
cnn
神经网络
pytorch
20李沐
动手学深度学习
v2/参数管理
参数访问#单隐藏层MLP,参数获取importtorchfromtorchimportnnnet=nn.Sequential(nn.Linear(4,8),nn.ReLU(),nn.Linear(8,1))X=torch.rand(size=(2,4))net(X)#访问指定层所有参数#net[2]拿到0,1,2。拿到nn.Linear(8,1)#nn.Sequential(nn.Linear(4
xcrj
·
2022-12-28 06:25
深度学习
深度学习
python
神经网络
上一页
36
37
38
39
40
41
42
43
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他