E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
《动手学深度学习》自学之路
动手学深度学习
2 安装环境
pytorch环境安装1.windows环境安装2.mac环境安装3.linux环境安装1.申请云服务器链接机器--Ubuntu2.环境配置4.不安装环境直接使用colabQA课程链接:https://www.bilibili.com/video/BV18p4y1h7Dr?p=1&vd_source=eb04c9a33e87ceba9c9a2e5f09752ef81.windows环境安装http
陌上阳光
·
2023-12-19 22:19
动手学深度学习
深度学习
人工智能
pytorch
动手学深度学习
笔记(二)
1.线性回归简化模型房价预测的模型可以理解为用一些能够表示房子特点的因素如卧室个数、卫生间个数、面积等nnn个属性组成的特征向量:x=[x1x2⋮xn]\mathbf{x}=\left[\begin{matrix}x_1\\x_2\\\vdots\\x_n\end{matrix}\right]x=⎣⎢⎢⎢⎡x1x2⋮xn⎦⎥⎥⎥⎤房价的预测是这些属性的加权和:y=w1x1+w2x2+⋯+wnxn+
上官永石
·
2023-12-19 18:31
动手学深度学习
人工智能
机器学习
深度学习
动手学深度学习
-d2l的plot使用
绘制函数y=x的3次方-x的-1次方在x=1处的切线x=np.arange(0,3,0.1)d2l.plot(x,[f(x),4*(x-1)],'x','f(x)',legend=['f(x)','Tangentline(x=1)'])绘制不同均值、不同方差的正态分布defnormal(x,mu,sigma):p=1/math.sqrt(2*math.pi*sigma**2)returnp*np.
heibut不相信眼泪
·
2023-12-19 08:17
深度学习
人工智能
动手学深度学习
-注意力机制
10.1注意力提示自主性注意力机制有意识的注意力机制。非自主性注意力机制无意识的注意力机制。小结:人类的注意力是有限的,有价值和稀缺的资源。受试者使用非自主性和自主性提示有选择的引导注意力,前者基于突出性,后者则依赖于意识。注意力机制与全连接层或者汇聚层的区别源于增加的自主提示。由于包含了自主性提示,注意力机制与全连接的层或汇聚层不同。注意力机制通过注意力汇聚使选择偏向于值(感官输入),其中包含查
jieHeEternity
·
2023-12-18 14:09
深度学习
人工智能
动手学深度学习
-自然语言处理:应用
自然语言处理中的应用主要有哪些?自然语言处理:应用情感分析及数据集情感分析研究人们在文本中的情感,这被认为是一个文本分类问题,它将可变长度的文本序列进行转换为固定长度的文本类别。经过预处理后,我们可以使用词表将IMDb评论数据集加载到数据迭代器中。情感分析:使用循环神经网络预训练的词向量可以表示文本序列中的各个词元。双向循环神经网络可以表示文本序列。例如通过连结初始和最终时间步的隐状态,可以使用全
jieHeEternity
·
2023-12-18 14:09
深度学习
深度学习
自然语言处理
人工智能
动手学深度学习
-自然语言处理-预训练
词嵌入模型将单词映射到实向量的技术称为词嵌入。为什么独热向量不能表达词之间的相似性?自监督的word2vec。word2vec将每个词映射到一个固定长度的向量,这些向量能更好的表达不同词之间的相似性和类比关系。word2vec分为两类,两类模型都是自监督模型。跳元模型(SKip-Gram)。连续词袋(CBOW)模型。小结词向量是用于表示单词意义的向量,也可以看作词的特征向量。将词映射到实向量的技术
jieHeEternity
·
2023-12-18 14:36
深度学习
深度学习
自然语言处理
人工智能
0基础Java
自学之路
我的
自学之路
先告诉你们我的自学过程可能让你们有点参考。大三的时候,班主任请了2个已经拿到offer的实验室同学来跟我们传授一些经验。听完
Python编程社区
·
2023-12-17 21:56
[
动手学深度学习
-PyTorch版]-4.4深度学习计算-自定义层
4.4自定义层深度学习的一个魅力在于神经网络中各式各样的层,例如全连接层和后面章节中将要介绍的卷积层、池化层与循环层。虽然PyTorch提供了大量常用的层,但有时候我们依然希望自定义层。本节将介绍如何使用Module来自定义层,从而可以被重复调用。4.4.1不含模型参数的自定义层我们先介绍如何定义一个不含模型参数的自定义层。事实上,这和4.1节(模型构造)中介绍的使用Module类构造模型类似。下
蒸饺与白茶
·
2023-12-17 09:04
【机器学习】044_Kaggle房价预测(机器学习模型实战)
参考自《
动手学深度学习
》中“Kaggle比赛实战:预测房价”一节一、数据准备首先从网站上下载要获取的房价数据。DATA_HUB是一个字典,用来将数据集名称的字符串和数据集相关的二元组一一对应。
Cyan.__
·
2023-12-17 09:05
机器学习
机器学习
深度学习
人工智能
python
SSD目标检测
SSD目标检测本次所使用的数据集是香蕉数据集,当然是参考https://zh.d2l.ai/chapter_computer-vision/ssd.html
动手学深度学习
这本书的首先是香蕉数据集的读取,
平平平安喔
·
2023-12-17 04:19
目标检测
人工智能
计算机视觉
【python】Debian安装miniconda、spyder、tushare
1.miniconda安装—
动手学深度学习
2.0.0documentation中有安装Miniconda的一些说明。
一尘之中
·
2023-12-16 22:33
python
编程
linux
python
开发语言
【
动手学深度学习
】(十二)现代卷积神经网络
文章目录一、深度卷积神经网络AlexNet1.理论知识2.代码二、使用块的网络VGG三、网络中的网络(NiN)1.理论2.代码四、含并行结的网络(GoogLeNet)2.代码五、批量归一化1.理论2.代码六、残差网络ResNet【相关总结】torch.nn.AdaptiveAvgPool2d()一、深度卷积神经网络AlexNet1.理论知识ImageNet(2010)图片自然物体的彩色图片手写数字
释怀°Believe
·
2023-12-16 14:28
#
动手学深度学习
深度学习
cnn
人工智能
【
动手学深度学习
】(十三)深度学习硬件
文章目录一、CPU和GPU二、更多的芯片1.DSP:数字信号处理2.可编程阵列(FPGA)3.AIASIC三、单机多卡并行一、CPU和GPU提升CPU利用率在计算a+b之前,需要准备数据主内存->L3->L2->L1->寄存器(数据只有进入寄存器才可以参与运算)提升空间和时间的内存本地性时间:重要数据使得保持它们在缓存里空间:按序读写数据使得可以预读取GPUCPUvsGPU提升GPU利用率并行使用
释怀°Believe
·
2023-12-16 14:58
#
动手学深度学习
深度学习
人工智能
【
动手学深度学习
】(十一)池化层+LeNet
文章目录一、池化层1.理论知识2.代码二、LeNet1.理论知识2.代码实现【相关总结】nn.MaxPool2d()卷积层对位置比较敏感一、池化层1.理论知识二维最大池化填充、步幅和多个通道池化层与卷积层类似,都具有填充和步幅没有可学习的参数在每个输入通道应用池化层以获得相应的输出通道输出通道数=输入通道数平均池化层最大池化层:每个窗口中最强的模式信号平均池化层:将最大池化层中的“最大”操作替换为
释怀°Believe
·
2023-12-16 14:28
#
动手学深度学习
深度学习
人工智能
【
动手学深度学习
】(十四)数据增广+微调
文章目录一、数据增强1.理论知识2.代码二、微调1.理论知识一、数据增强1.理论知识增加一个已有数据集,使得有更多的多样性在语言里面加入各种不同的背景噪音改变图片的颜色和形状使用增强数据训练翻转左右翻转上下翻转不总是可行切割从图片中切割一块,然后变形到固定形状随机高宽比随机大小随机位置颜色改变色调,饱和度,明亮度[总结]数据增广通过变形数据来获取多样性从而使得模型泛化性能更好常见图片增广包括翻转、
释怀°Believe
·
2023-12-16 14:49
#
动手学深度学习
深度学习
人工智能
注意力机制,Transformer相关详解
本文遵循《
动手学深度学习
pytorch版》的内容组织,从注意力机制开始讲到Transfomer,偏重关键知识理解并附带图解和公式,未加说明时,插图均来自于该书,文本内容较长(9414字),建议收藏慢慢复习
hadiii
·
2023-12-16 08:35
transformer
深度学习
人工智能
神经网络
十六
动手学深度学习
v2计算机视觉 ——样式迁移
文章目录基于CNN的样式迁移基于CNN的样式迁移我们通过前向传播(实线箭头方向)计算风格迁移的损失函数,并通过反向传播(虚线箭头方向)迭代模型参数,即不断更新合成图像。风格迁移常用的损失函数由3部分组成:内容损失使合成图像与内容图像在内容特征上接近;风格损失使合成图像与风格图像在风格特征上接近;全变分损失则有助于减少合成图像中的噪点。内容损失:均方误差样式损失:样式相似就是指特征的统计分布一样,g
王二小、
·
2023-12-15 23:43
动手学深度学习
深度学习
人工智能
十三
动手学深度学习
v2计算机视觉 ——语义分割
文章目录分割图像分割语义分割实例分割分割图像分割指的是使用边界、色彩梯度等特征对图像进行划分,但只能是进行划分,算法并不对划分出的部分有语义上的理解;而随着计算能力提高以及卷积神经网络的发展,能够理解分割后图像语义的算法逐渐出现,能够理解语义的图像分割,称为语义分割。实例分割(InstanceSegmentation)和语义分割(SemanticSegmentation)是计算机视觉中两个不同但相
王二小、
·
2023-12-15 23:13
动手学深度学习
深度学习
计算机视觉
人工智能
十五
动手学深度学习
v2计算机视觉 ——全连接神经网络FCN
文章目录FCNFCN全卷积网络先使用卷积神经网络抽取图像特征,然后通过卷积层将通道数变换为类别个数,最后通过转置卷积层将特征图的高和宽变换为输入图像的尺寸。因此,模型输出与输入图像的高和宽相同,且最终输出通道包含了该空间位置像素的类别预测。上图的CNN去掉了池化层和全连接层!1x1卷积层降低维度,减少计算量。最后输出kx224x224,通道数就是类别数。
王二小、
·
2023-12-15 23:13
动手学深度学习
深度学习
计算机视觉
神经网络
十四
动手学深度学习
v2计算机视觉 ——转置矩阵
文章目录基本操作填充、步幅和多通道再谈转置卷积不填充,步幅为1填充为p,步幅为1填充为p,步幅为s基本操作填充、步幅和多通道填充:与常规卷积不同,在转置卷积中,填充被应用于的输出(常规卷积将填充应用于输入)。例如,当将高和宽两侧的填充数指定为1时,转置卷积的输出中将删除第一和最后的行与列。步幅:在转置卷积中,步幅被指定为中间结果(输出),而不是输入。使用上图相同输入和卷积核张量,将步幅从1更改为2
王二小、
·
2023-12-15 22:01
动手学深度学习
深度学习
计算机视觉
矩阵
动手学深度学习
——Anaconda、pytorch、paddle安装(cpu版本)
之前出了个Windows下的深度学习安装,但在继续学习的过程中发现,沐神的一些代码跑不起来,这里又提供pytorch和paddle的安装,各位用pytorch或者百度飞桨paddlepaddle来学习深度学习也是可以的。安装Anaconda1.打开Anaconda链接,下载,时间较久2.下载完成,开始安装3.安装路径可以随意,不过推荐使用默认安装路径,next虽说下面要勾选添加环境变量的选项,我这
Audery867
·
2023-12-15 05:44
深度学习
深度学习
pytorch
paddle
python
机器学习
动手学深度学习
(一) 线性回归
线性回归主要内容包括:线性回归的基本要素线性回归模型从零开始的实现线性回归模型使用pytorch的简洁实现线性回归的基本要素模型为了简单起见,这里我们假设价格只取决于房屋状况的两个因素,即面积(平方米)和房龄(年)。接下来我们希望探索价格与这两个因素的具体关系。线性回归假设输出与各个输入之间是线性关系:数据集我们通常收集一系列的真实数据,例如多栋房屋的真实售出价格和它们对应的面积和房龄。我们希望在
致Great
·
2023-12-05 13:00
【
动手学深度学习
】(十)PyTorch 神经网络基础
文章目录一、层和块1.自定义块2.顺序块3.在前向传播函数中执行代码二、参数管理1.参数访问2.参数初始化3.参数绑定三、自定义层1.不带参数的层2.带参数的层四、读写文件1.加载和保存张量2.加载和保存模型参数[相关总结]state_dict()一、层和块为了实现复杂神经网络块,引入了神经网络块的概念。使用块进行抽象的一个好处是可以将一些块组合成更大的组件。从编程的角度来看,块由类表示。impo
释怀°Believe
·
2023-12-05 09:35
#
动手学深度学习
深度学习
pytorch
神经网络
【
动手学深度学习
】(七)丢弃法
文章目录一、理论知识二、代码实现2.1从零开始实现Dropout2.2简洁实现【相关总结】np.random.uniform(low,high,size)astypetorch.rand()一、理论知识1.动机一个好的模型需要对输入数据的扰动鲁棒使用有噪音的数据等价于Tikhonov正则丢弃法:在层之间加入噪音2.无偏差的加入噪音对x加入噪音得到x’,我们希望丢弃法对每个元素进行如下扰动3.使用场
释怀°Believe
·
2023-12-03 04:22
#
动手学深度学习
深度学习
人工智能
【
动手学深度学习
】(九)Kaggle房价预测
文章目录一、代码1.下载和缓存数据集【相关总结】1.os.makedirs()2.os.path.join()3.os.path.exits()4.os.path.dirname()一、代码题目链接1.下载和缓存数据集建立字典DATA_HUB,将数据集名称的字符串映射到数据集相关的二元组上,这个二元组包含数据集的url和验证文件完整性的sha-1密钥importhashlibimportosimp
释怀°Believe
·
2023-12-03 04:22
#
动手学深度学习
深度学习
人工智能
【
动手学深度学习
】(六)权重衰退
文章目录一、理论知识二、代码实现2.1从零开始实现2.2简洁实现【相关总结】主要解决过拟合一、理论知识1、使用均方范数作为硬性限制(不常用)通过限制参数值的选择范围来控制模型容量通常不限制偏移b小的意味着更强的正则项使用均方范数作为柔性限制对于每个都可以找到使得之前的目标函数等价于下面的:可以通过拉格朗日乘子来证明超参数控制了正则项的重要程度参数更新法则总结:权重衰退通过L2正则项使得模型参数不会
释怀°Believe
·
2023-12-03 04:21
#
动手学深度学习
深度学习
人工智能
【
动手学深度学习
】(八)数值稳定和模型初始化
文章目录一、理论知识一、理论知识1.神经网络的梯度考虑如下有d层的神经网络计算损失l关于参数Wt的梯度(链式法则)2.数值稳定性常见的两个问题3.梯度爆炸4.梯度爆炸的问题值超出阈值对于16位浮点数尤为严重对学习率敏感如果学习率太大->大参数值->更大的梯度如果学习率太小->训练无进展我们可能需要在训练过程中不断调整学习率5.梯度消失使用sigmoid作为激活函数6.梯度消失的问题梯度值变为0对1
释怀°Believe
·
2023-12-03 04:50
#
动手学深度学习
深度学习
人工智能
后端
自学之路
《基础知识》第一篇:OSI模型
========================================OSI参考模型==============================================共七层:1,应用层2,表示层3,会话层4,传输层5,网络层6,数据链路层7,物理层第一层:应用层提供层序接口,以太网ip端口号数据数据编码格式(UTF-8,UTF-16等)第二层:表示层表示层会根据规定的编码格式进
雷鸣_IT
·
2023-12-01 10:35
NodeJS
后端
自学之路
《基础知识》第二篇:端口号 port
=====================================端口号===================================================端口号英文:portnumber1,所谓的端口,就好像是门牌号一样,客户端可以通过ip地址找到对应的服务器端,但是服务器端是有很多端口的,每个应用程序对应一个端口号,通过类似门牌号的端口号,客户端才能真正的访问到该服务
雷鸣_IT
·
2023-12-01 10:35
NodeJS
笔记61:注意力提示
本地笔记地址:D:\work_file\(4)DeepLearning_Learning\03_个人笔记\3.循环神经网络\第10章:
动手学深度学习
~注意力机制aaaaaaaa
恨晨光熹微
·
2023-11-30 19:52
笔记
笔记62:注意力汇聚 --- Nadaraya_Watson 核回归
本地笔记地址:D:\work_file\(4)DeepLearning_Learning\03_个人笔记\3.循环神经网络\第10章:
动手学深度学习
~注意力机制aaaaaaaaaaaaaaaaaa
恨晨光熹微
·
2023-11-30 19:52
笔记
笔记63:注意力评分函数
本地笔记地址:D:\work_file\(4)DeepLearning_Learning\03_个人笔记\3.循环神经网络\第10章:
动手学深度学习
~注意力机制aaaaaaaaaaaaaaaaaaa
恨晨光熹微
·
2023-11-30 19:52
笔记
笔记64:Bahdanau 注意力
本地笔记地址:D:\work_file\(4)DeepLearning_Learning\03_个人笔记\3.循环神经网络\第10章:
动手学深度学习
~注意力机制aaaaaaaaaaa
恨晨光熹微
·
2023-11-30 19:46
笔记
动手学深度学习
笔记day9
卷积神经网络(convolutionalneuralnetworks,CNN)图像不是二维张量,而是一个由高度、宽度和颜色组成的三维张量,比如包含个像素。前两个轴与像素的空间位置有关,而第三个轴可以看作是每个像素的多维表示。互相关运算互相关运算(cross-correlation):在卷积层中,输入张量和核张量通过互相关运算产生输出张量。在图中,输入是高度为3、宽度为3的二维张量(即形状为3×3)
努力学习的廖同学
·
2023-11-29 17:24
深度学习
神经网络
cnn
动手学深度学习
(5.3)——卷积神经网络进阶
深度卷积神经网络(AlexNet)LeNet:在大的真实数据集上的表现并不尽如⼈意。1.神经网络计算复杂。2.还没有⼤量深⼊研究参数初始化和⾮凸优化算法等诸多领域。机器学习的特征提取:手工定义的特征提取函数神经网络的特征提取:通过学习得到数据的多级表征,并逐级表⽰越来越抽象的概念或模式。神经网络发展的限制:数据、硬件AlexNet首次证明了学习到的特征可以超越⼿⼯设计的特征,从而⼀举打破计算机视觉
贾如钊
·
2023-11-28 19:43
Python
自学之路
-Windows下配置SublimeText3问题汇总
今天在公司搭建SublimeText3下的Python环境,看来人品不行,安装过程中遇到些问题,这里汇总总结一下。(一)下载与安装首先在官网下载(http://www.sublimetext.com/3)SublimeText3。安装时,注意勾选Addtoexplorercontextmenu,这样SublimeText可以被添加到右键中,在右键单击文件时,可以直接使用SublimeText打开。
Bug生活2048
·
2023-11-27 06:51
动手学深度学习
(三)---Softmax回归
文章目录一、理论知识1.图像分类数据集2.softmax回归的从零开始实现3.Softmax简洁实现softmax回归一、理论知识回归估计一个连续值分类预测一个离散类别回归单连续数值输出自然区间R跟真实值的区别作为损失分类通常多个输出输出i是预测为第i类的置信度一般我们使用交叉熵用来衡量两个概率的区别将它作为损失其梯度是真实概率和预测概率的区别:其梯度是真实概率和预测概率的区别损失函数(1)L2L
释怀°Believe
·
2023-11-26 20:14
#
动手学深度学习
深度学习
人工智能
动手学深度学习
(二)---线性回归
文章目录1.理论知识2.线性回归从0实现3.线性回归简洁实现【相关方法】torch.normal()1.理论知识线性假设是指目标可以表示为特征的加权和:ex1;在机器学习领域,一般用线性代数处理会更方便向量x对应单个数据样本的特征。对于特征集合X,我们可以采用矩阵-向量乘法2.线性回归从0实现从0开始实现整个方法,包括数据流水线、模型、损失函数和小批量随机梯度下降优化器(1)导入需要的包%matp
释怀°Believe
·
2023-11-26 20:13
#
动手学深度学习
深度学习
线性回归
人工智能
动手学深度学习
(四)---多层感知机
文章目录一、理论知识1.感知机2.XOR问题3.多层感知机4.多层感知机的从零开始实现【相关总结】1.torch.randn()2.torch.zeros_like()一、理论知识1.感知机给定输入x,权重w,和偏移b,感知机输出:2.XOR问题感知机不能拟合XOR问题,他只能产生线性分割面3.多层感知机多层感知机和softmax没有本质区别,只是多加了一层隐藏层没有隐藏层就是softmax回归,
释怀°Believe
·
2023-11-26 20:40
#
动手学深度学习
深度学习
人工智能
[深度学习]
动手学深度学习
笔记-10
Task5——卷积神经网络基础;leNet;卷积神经网络进阶10.1卷积神经网络(CNN)基础卷积神经网络是一种用来处理局部和整体相关性的计算网络结构,被应用在图像识别、自然语言处理甚至是语音识别领域,因为图像数据具有显著的局部与整体关系,其在图像识别领域的应用获得了巨大的成功。10.1.1卷积神经网络的组成层图10.1卷积神经网络示意图以图像分类任务为例,在表10.1所示卷积神经网络中,一般包含
田纳尔多
·
2023-11-26 12:16
深度学习
深度学习
卷积
《
动手学深度学习
》笔记2.3 线性代数
2.3线性代数前言范数小结前言原文档:https://zh-v2.d2l.ai/chapter_preliminaries/linear-algebra.html本文章为学习笔记这一章的内容都很重要,特别是范数,建议看原文档重点是L1范数和L2范数,及Lp范数范数小结·标量、向量、矩阵和张量是线性代数中的基本数学对象。·向量泛化自标量,矩阵泛化自向量。·标量、向量、矩阵和张量分别具有零、一、二和任
开哥kg
·
2023-11-26 09:59
《动手学深度学习》笔记
线性代数
深度学习
矩阵
【
动手学深度学习
v2】注意力机制—4 Transformer
Transformer模型多头注意力Multi-HeadAttention有掩码的多头注意力Maskedmulti-headattention基于位置的前馈网络PositionwiseFFN残差+层归一化Add&Norm信息传递预测总结参考系列文章模型基于编码器-解码器架构处理序列对;跟使用注意力的seq2seq不同,Transformer纯用基于注意力,不用RNN多头注意力Multi-HeadA
Hannah2425
·
2023-11-26 09:20
DeepLearning
深度学习
transformer
人工智能
Unity3D
自学之路
——转
一、前言原文主要讲的是如何从零基础入门,然后一步一步进阶的文章,包括很多学习资料,学习的网址,研究方向等,内容还是比较全面的。大家多多支持一些克森大神,关注一下他的公众号。这篇文章就将原文的内容进行总结合并,然后转载过来跟大家一起学习。二、原文原文地址:https://mp.weixin.qq.com/s/nAaGAzT7NIPH4v6YOzBCRg原文作者:克森原文出处:微信公众号克森空间三、正
cold-seven-say
·
2023-11-25 04:27
U3D
Unity3D
自学之路
一、前言原文主要讲的是如何从零基础入门,然后一步一步进阶的文章,包括很多学习资料,学习的网址,研究方向等,内容还是比较全面的。大家多多支持一些克森大神,关注一下他的公众号。这篇文章就将原文的内容进行总结合并,然后转载过来跟大家一起学习。二、原文原文地址:https://mp.weixin.qq.com/s/nAaGAzT7NIPH4v6YOzBCRg原文作者:克森原文出处:微信公众号克森空间三、正
Peter0oo0Lee
·
2023-11-25 04:56
u3d
u3d
沐神深度学习报错 can only concatenate str (not “int“) to str
学习背景:
动手学深度学习
第二章数据预处理中报错:canonlyconcatenatestr(not“int”)tostr报错原因:panda新版本对fillna函数做了调整,原先是忽略str。
In 2029
·
2023-11-24 21:25
深度学习
人工智能
pytorch
动手学深度学习
之kaggle竞赛
实战Kaggle比赛:图像分类(CIFAR-10)importcollectionsimportmathimportosimportshutilimportpandasaspdimporttorchimporttorchvisionfromtorchimportnnfromd2limporttorchasd2l我们提供包含前1000个训练图像和5个随机测试图像的数据集的小规模样本d2l.DATA_
哈哈哈捧场王
·
2023-11-24 21:04
机器学习&深度学习
深度学习
《
动手学深度学习
》第二章 预备知识
2.1获取和运行本书的代码大家可以在自己的环境试验2.2数据操作NDArray提供GPU计算和自动求梯度等更多功能,这些使NDArray更加适合深度学习。2.2.1创建NDArraynd.arrangend.shapend.reshapend.sizend.zerosnd.onesnd.arraynd.random.normal2.2.2运算+、-、*、/、exp、dot、concatenate、
irving不会机器学习
·
2023-11-23 01:35
动手学深度学习
笔记---4.3 解决过拟合_权重衰减与Dropout
一、权重衰退(Weight_decay)正则限制针对模型训练时出现的过拟合问题,限制模型容量是一种很好的解决方法,目前常用的方法有以下两种:缩小模型参数量,例如降低模型层数,使得模型更加轻量化,L1L1L1正则化通过限制参数值的选择范围来控制模型容量,L2L2L2正则化:使用均方范数作为硬性限制,即对于参数w,bw,bw,b,假设其损失函数为l(w,b)l(w,b)l(w,b),则其优化目标为mi
Aaaaaki
·
2023-11-22 15:06
深度学习
机器学习
人工智能
【Dive into Deep Learning |
动手学深度学习
(李沐)】4.5权重衰退--学习笔记
目录使用均方范数作为硬性限制使用均方范数作为硬性限制证明过程梯度更新法则小结代码实现从零开始生成数据集初始化模型参数定义L2范数惩罚定义训练代码实现简洁实现小结权重衰减(weightdecay)是最广泛使用的正则化的技术之一,它通常也被称为L2正则化。这项技术通过函数与零的距离来衡量函数的复杂度,因为在所有函数f中,函数f=0(所有输入都得到值0)在某种意义上是最简单的。使用均方范数作为硬性限制通
爱吃白菜的金小妞
·
2023-11-21 04:11
深度学习(李沐老师)
深度学习
笔记
人工智能
神经网络
《
动手学深度学习
》4.5. 权重衰减(李沐)
4.5.1.高维线性回归代码学习笔记(含详细注释)通过一个简单的例子来演示权重衰减4.5.1.高维线性回归%matplotlibinlineimporttorchfromtorchimportnnfromd2limporttorchasd2l若在pycharm上面用到matplotlib库,可以将上述代码中的:%matplotlibinline替换为:importmatplotlib.pyplot
认真学习!!!
·
2023-11-21 04:10
动手学习深度学习
深度学习
python
机器学习
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他