E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
动手学深度学习
填充和跨度——【torch学习笔记】
卷积之填充和跨度引用翻译:《
动手学深度学习
》在上一节的例子中,我们用一个高度和宽度为3的输入和一个高度和宽度为2的卷积核来得到一个高度和宽度为2的输出。
一个语文不好的NLPer
·
2022-04-25 07:43
深度学习——torch学习笔记
神经网络
torch
pytorch
深度学习
卷积
pytorch 实现人脸检测与识别
实现人脸检测与识别准备工作人脸检测opencv实现人脸检测卷积神经网络CNN实现人脸检测数据导入CNN模型训练人脸检测存在的问题人脸识别获取数据模型训练识别存在的问题总结最近阅读了《DiveintoDeepLearning》(
动手学深度学习
py-d
·
2022-04-24 07:01
卷积神经网络
人脸识别
深度学习
动手学深度学习
(pytorch版本) | 第三章:深度学习基础
文章目录3.1线性回归3.1.1线性回归的节本要素3.1.2线性回归的表示方法3.4softmax回归3.4.5交叉熵损失函数3.4.6模型预测及评价3.4.7小结3.5图像分类数据集(Fashion—MNIST)3.5.1获取数据集3.6softmax回归从零开始实现二、使用步骤1.引入库2.读入数据总结3.1线性回归线性回归输出是一个连续值,因此适用于回归问题。softmax回归则适用于分类问
我是真的菜啊啊
·
2022-04-23 07:45
深度学习
深度学习
pytorch
机器学习
动手学深度学习
(三、深度学习基础--多层感知机、基础知识)
动手学深度学习
(三、深度学习基础--多层感知机、基础知识)1.隐藏层2.激活函数ReLU函数sigmoid函数tanh函数一、多层感知机的从零开始实现多层感知机就是含有至少一个隐藏层的由全连接层组成的神经网络
jiangchao98
·
2022-04-23 07:37
深度神经网络
神经网络
python
机器学习
深度学习
动手学深度学习
笔记(六)——多层感知机及实现
多层感知机(MLP,MultilayerPerceptron)也叫人工神经网络(ANN,ArtificialNeuralNetwork),除了输入输出层,它中间可以有多个隐层。文章目录1.1隐藏层1.2激活函数1.2.1ReLU函数1.2.2sigmoid函数1.2.3tanh函数1.3简洁实现1.1隐藏层通过在网络中加入一个或多个隐藏层来克服线性模型的限制,使其能处理更普遍的函数关系类型,最简单
.别拖至春天.
·
2022-04-22 12:52
动手学深度学习
深度学习
pytorch
python
动手学深度学习
笔记(五)——softmax回归实现
我们发现通过深度学习框架的高级API能够使实现线性回归变得更加容易。同样,通过深度学习框架的高级API也能更方便地实现softmax回归模型。文章目录1.1图像分类数据集1.1.1读取数据集1.1.2读取小批量1.1.3整合所有组件1.2初始化模型参数1.3损失函数1.4优化算法1.5训练1.1图像分类数据集MNIST数据集是图像分类中广泛使用的数据集之一,但作为基准数据集过于简单。我们将使用类似
.别拖至春天.
·
2022-04-22 12:52
动手学深度学习
深度学习
回归
python
动手学深度学习
笔记(四) ——分类问题(softmax回归)
分类问题通常分为两类:硬分类和软分类;硬分类:只对样本的“硬性”类别感兴趣,即属于哪个类别;软分类:即得到属于每个类别的概率;这两者的界限往往很模糊,因为即使我们只关心硬类别,我们仍然使用软类别的模型。文章目录1.1.1分类问题1.1.2网络架构1.1.3softmax运算1.1.4小批量样本的矢量化1.1.5损失函数1.1.5.1对数似然1.1.5.2softmax及其导数1.1.5.3交叉熵损
.别拖至春天.
·
2022-04-22 12:51
动手学深度学习
分类
深度学习
回归
动手学深度学习
笔记(三)——线性回归代码实现
了解线性回归的关键思想之后,始通过代码来动手实现线性回归。文章目录1.1从零开始实现1.1.1生成数据集1.1.2读取数据集1.1.3初始化模型参数1.1.4定义模型1.1.5定义损失函数1.1.6定义优化算法1.1.7训练1.2简洁实现1.2.1生成数据集1.2.2读取数据集1.2.3定义模型1.2.4初始化模型参数1.2.5定义损失函数1.2.6定义优化算法1.2.7训练1.1从零开始实现虽然
.别拖至春天.
·
2022-04-22 12:21
动手学深度学习
深度学习
线性回归
python
torch自定义层——【torch学习笔记】
自定义层引用翻译:《
动手学深度学习
》深度学习成功的原因之一是可以在深度网络中使用的广泛的层中找到。这允许了巨大程度的定制和适应。
一个语文不好的NLPer
·
2022-04-21 07:03
深度学习——torch学习笔记
神经网络
深度学习
torch
欠拟合和过拟合——【torch学习笔记】
欠拟合和过拟合引用翻译:《
动手学深度学习
》当我们比较训练和验证误差时,我们要注意两种常见的情况。首先,我们要注意我们的训练误差和验证误差都很大,但两者之间有一点差距的情况。
一个语文不好的NLPer
·
2022-04-16 11:40
深度学习——torch学习笔记
torch
神经网络
深度学习
【PyTorch】
动手学深度学习
-梳理与笔记小结|卷积神经网络
动手学深度学习
-卷积神经网络Refs:参考书籍-《
动手学深度学习
》从FCN到CNN全连接层的应用背景好比是对应于一个m样本n特征属性的mxn维矩阵,在没有任何关于特征交互的先验信息情况下,去寻找特征之间的交互结构
kodoshinichi
·
2022-04-15 07:29
深度学习
#
PyTorch
人工智能
深度学习
pytorch
卷积神经网络
cnn
线性回归底层实现——【torch学习笔记】
从零开始的线性回归实现引用翻译:《
动手学深度学习
》与另一篇添加链接描述实现线性回归——【torch学习笔记】相对应,本篇更偏向于各函数的底层实现。
一个语文不好的NLPer
·
2022-04-14 15:05
深度学习——torch学习笔记
torch
机器学习
线性回归
数学
神经网络
关于李沐
动手学深度学习
(d2l)pytorch环境本地配置
本地安装d2l由于之前试了很多次d2l课本的安装方法失败了,这里提供一种我可以成功安装d2l包的方法。pytorch安装首先安装cuda、cudnn、pytroch(gpu版本)。可以参考这篇文章。神经网络学习小记录48——windows下的torch=1.2.0环境配置_Bubbliiiing的学习小课堂-CSDN博客_神经网络学习小记录神经网络学习小记录48——windows下的torch=1
weixin_42899049
·
2022-04-11 09:27
pytorch
深度学习
神经网络
深度学习+pytorch自学笔记(四)——softmax回归
参考书籍《
动手学深度学习
(pytorch版),参考网址为:https://tangshusen.me/Dive-into-DL-PyTorch/#/请大家也多多支持这一个很好用的平台~大部分内容为书中内容
子非鱼icon
·
2022-04-10 00:57
深度学习自学笔记
python
深度学习
pytorch
[Pytorch]<
动手学深度学习
>pytorch笔记-----SoftMax回归
1.引入需求:分类问题让我们考虑一个简单的图像分类问题,其输入图像的高和宽均为2像素,且色彩为灰度。这样每个像素值都可以用一个标量表示。我们将图像中的4像素分别记为x1,x2,x3,x4。假设训练数据集中图像的真实标签为狗、猫或鸡(假设可以用4像素表示出这3种动物),这些标签分别对应离散值y1,y2,y3.我们通常使用离散的数值来表示类别,例如y1=1,y2=2,y3=3。如此,一张图像的标签为1
End1esz
·
2022-04-10 00:27
动手学Pytorch
pytorch
深度学习
机器学习
《
动手学深度学习
+PyTorch》3.6softmax回归的从零开始实现 学习笔记
文章目录前言一、训练集和测试集二、步骤1.引入库2.读取数据3.初始化模型参数4.定义模型5.定义损失函数6.计算分类准确率7.训练模型8.预测总结前言Softmax回归也称多项或多类的Logistic回归,是Logistic回归在多分类问题上的推广。一、训练集和测试集使用上一节获取得到的数据集Fashion-MNIST。二、步骤1.引入库importtorchimporttorchvisioni
稚晖君的小弟
·
2022-04-10 00:45
深度学习
pytorch
逻辑回归
朴素贝叶斯分类——【torch学习笔记】
朴素贝叶斯分类引用翻译:《
动手学深度学习
》在我们担心复杂的优化算法或GPU之前,我们已经可以部署我们的第一个分类器,只依靠简单的统计估计器和我们对条件独立性的理解。学习就是要做假设。
一个语文不好的NLPer
·
2022-04-08 18:27
深度学习——torch学习笔记
机器学习
torch
朴素贝叶斯
手写数字识别
图像分类
《
动手学深度学习
》task2——文本预处理,语言模型,循环神经网络基础笔记
系统学习《
动手学深度学习
》点击这里:《
动手学深度学习
》task1_1线性回归《
动手学深度学习
》task1_2Softmax与分类模型《
动手学深度学习
》task1_3多层感知机《
动手学深度学习
》task2
shiinerise
·
2022-04-08 07:01
深度学习
动手学深度学习
pytorch
文本预处理
语言模型
循环神经网络
Pytorch基本操作(5)——torchvision中的Dataset以及Dataloader
简介在学习李沐在B站发布的《
动手学深度学习
》PyTorch版本教学视频中发现在操作使用PyTorch方面有许多地方看不懂,往往只是“动手”了,没有动脑。
Xujl99
·
2022-04-07 07:24
pytorch
深度学习
pytorch
深度学习
人工智能
Pytorch基本操作(2)——Dataset以及Dataloader
1简介在学习李沐在B站发布的《
动手学深度学习
》PyTorch版本教学视频中发现在操作使用PyTorch方面有许多地方看不懂,往往只是“动手”了,没有动脑。
Xujl99
·
2022-04-07 07:53
pytorch
深度学习
pytorch
深度学习
神经网络
目标检测中的边界框(x,y,w,h形式转换与绘制)
目标检测中的边界框(x,y,w,h形式转换与绘制)之前做了个关于yolov4的目标检测项目,对这个领域产生了兴趣,决定系统的学习一下记录来源:李沐老师:
动手学深度学习
在线阅读https://zh-v2.
Joker-Tong
·
2022-03-26 07:52
准研究生的生活
深度学习
pytorch
分类
深度学习
《
动手学深度学习
》pytorch版 第二章练习
DiveIntoDeepLearning2.预备知识2.1数据操作第一题第二题2.2数据预处理第一题2.3线性代数第一题第二题第三题第四题第五题第六题第七题第八题2.4微积分第一题第二题第三题第四题2.5自动微分第一题第二题第三题第四题第五题2.6概率第一题第二题第三题第四题(刚刚开始学习深度学习,争取把节课的练习都记录下来,菜鸡一个,如果哪个地方有错误或是没有理解到位烦请各位大佬指教)2.预备知
Canon-H
·
2022-03-24 07:24
深度学习
pytorch
python
[
动手学深度学习
(PyTorch)]——自动求导
一、自动求导自动求导计算一个函数在指定值上的导数1、计算图显示构造:TensorFlow、Theano、MXNet隐式构造:PyTorch2、自动求导的两种模式正向传播:就是先从x出发,u1关于x的导数求出来,借助链式求导法则,此时就可以求u2关于x的导数反向传播:就是先从y出发.二、自动求导的实现x.requires_grad_(bool):是否需要定义空间保存梯度信息x.grad:该属性用来获
Star星屹程序设计
·
2022-03-24 07:23
动手学深度学习
深度学习
pytorch
动手学深度学习
——矩阵求导之自动求导
深度学习框架通过自动计算导数,即自动微分(automaticdifferentiation)来加快求导。实际中,根据我们设计的模型,系统会构建一个计算图(computationalgraph),来跟踪计算是哪些数据通过哪些操作组合起来产生输出。自动微分使系统能够随后反向传播梯度。这里,反向传播(backpropagate)意味着跟踪整个计算图,填充关于每个参数的偏导数。下面的求导计算多是采用分子布
时生丶
·
2022-03-24 07:17
深度学习笔记
矩阵
线性代数
深度学习
【李沐:
动手学深度学习
pytorch版】第2章:预备知识
第2章预备知识2.1数据操作2.1.1入门导入的是torch而不是pytorchimporttorch一个数叫标量一个轴叫向量两个轴叫矩阵arange#生成行向量x=torch.arange(12)xtensor([0,1,2,3,4,5,6,7,8,9,10,11])shapex.shape#访问张量的形状torch.Size([12])numel()#访问张量中元素的个数x.numel()12
zdb呀
·
2022-03-24 07:14
#
动手学深度学习
pytorch
深度学习
python
深度学习PyTorch笔记(9):自动求导
深度学习PyTorch笔记(9):自动求导4.自动求导4.1理解4.2梯度4.3.requires_grad与.grad_fn4.4调用.backward()反向传播来完成所有梯度计算这是《
动手学深度学习
三耳01
·
2022-03-24 07:43
深度学习
pytorch
深度学习
python
动手学深度学习
——自动求导|CSDN创作打卡
自动求导一、计算图二、构造三、自动求导代码使用一、计算图1.正向2.反向3.复杂度正向和反向的计算复杂度都是O(n)。因为计算梯度都需要遍历一遍图。正向的内存复杂度为O(1),而反向的为O(n),因为反向是需要正向一遍来保存中间值的,中间值占掉了空间。二、构造1.显示构造(Tensorflow/theano/MXNet)先构造好公式(计算图),然后在带入数值计算,一般数学上都是属于显示构造。2.隐
caroline~按
·
2022-03-24 07:13
深度学习
深度学习
pytorch
机器学习
李沐
动手学深度学习
-07自动求导
07自动求导对于矩阵的求导可以使用函数自动实现,但是还是需要学习一下具体的过程。链式法则等导数计算方法,截图主要用于帮助理解反向传递正向和反向的计算方法相比,在时间复杂度上两者并没有太大的查遍,但是内存复杂度不同,正向传递需要把所有结果都存下来,需要消耗大量的GPU内存资源。x=torch.arange(4.0)print(x)x.requires_grad_(True)#等价于x=torch.a
Allure丶憨憨
·
2022-03-24 07:41
李沐深度学习
python
pytorch
深度学习
【
动手学深度学习
】00-矩阵求导和自动求导
1.矩阵求导1.1标量导数(高中知识)都是高中的知识1.2亚导数将导数拓展到不可导的情况1.3梯度将导数扩展到向量1.3.1∂y/∂x\partialy/\partial\mathbf{x}∂y/∂x底部是向量,上部是标量由于向量在底部,所以求导之后结果的向量会反过来样例为下:特别的就是,两个向量的内积为矩阵,sum一个向量,其导数为向量1的转置注意,对于∂∂w=xT\frac{\partial}
zhaoylai
·
2022-03-24 07:10
动手学深度学习
矩阵
深度学习
线性代数
pytorch
动手学深度学习
pytorch学习笔记
2.3自动求梯度不允许Tensor对Tensor求导,只允许标量Scalar对张量Tensor求导,求导结果是和自变量同型的Tensor。torch.autograd.backward(y,w),或者说y.backward(w)的含义是:先计算l=torch.sum(y*w),然后求l对(能够影响到y的)所有变量x的导数。这里,y和w是同型Tensor。也就是说,可以理解成先按照w对y的各个分量加
UHL1107
·
2022-03-24 07:07
神经网络
深度学习
自动求导
动手学深度学习
pytorch
例子:importtorchx=torch.arange(4.0)xtensor([0.,1.,2.,3.])x.requires_grad_(True)#x=torch.arange(4.0,requires_grad=True)x.grady=2*torch.dot(x,x)ytensor(28.,grad_fn=)y.backward()x.gradtensor([0.,4.,8.,12.]
AI架构师易筋
·
2022-03-24 07:03
李沐动手学深度学习
自动求导
pytorch
《
动手学深度学习
PyTorch版》打卡_Task3,过拟合,欠拟合,梯度消失,梯度爆炸
最近参加了伯禹平台和Datawhale等举办的《
动手学深度学习
PyTorch版》课程,对过拟合,欠拟合,梯度消失,梯度爆炸做下笔记。
kanatappi
·
2022-03-22 17:55
动手学深度学习PyTorch版
神经网络
pytorch
深度学习
动手学深度学习
:3.14 正向传播、反向传播和计算图
3.14正向传播、反向传播和计算图前面几节里我们使用了小批量随机梯度下降的优化算法来训练模型。在实现中,我们只提供了模型的正向传播(forwardpropagation)的计算,即对输入计算模型输出,然后通过autograd模块来调用系统自动生成的backward函数计算梯度。基于反向传播(back-propagation)算法的自动求梯度极大简化了深度学习模型训练算法的实现。本节我们将使用数学和
AI_Younger_Man
·
2022-03-17 07:16
#
深度学习
[
动手学深度学习
(PyTorch)]——模型选择
写在前面:两种误差训练误差:模型在训练数据上得误差泛化误差:模型在新数据上的误差泛化误差(generalizationerror)是指,模型应用在同样从原始样本的分布中抽取的无限多数据样本时,模型误差的期望。如何计算训练误差和泛化误差:验证数据集:一个用来评估模型好坏的数据集验证数据集一定不能和训练数据集混淆在一起测试数据集:只用一次的数据集K-则交叉验证:注意:数据集不大的情况下,通常采用K则交
Star星屹程序设计
·
2022-03-16 07:25
动手学深度学习
pytorch
深度学习
机器学习
windows上配置深度学习(李沐-
动手学深度学习
)
1、安装minicondawindows下安装,去清华大学开源镜像下载,速度比较快。选中Miniconda3-latest-Windos-x86_64.exe下载安装包(目前最新的是py3.9)或者(py3.8版本的)(由于该课程李沐用的是3.8,所以建议3.8):下载完成之后双击安装即可,一般都选择默认配置即可安装完成后,打开anacondaprompt这个终端(安装miniconda的时候会自
zhaoylai
·
2022-03-14 07:49
深度学习
windows
深度学习
人工智能
机器学习中的python调用c
简介前言,当查看tfpython代码时,碰到一个函数实际由C++实现时,pybind11
动手学深度学习
框架(2)-python端如何调用c++的代码pybind11是一个轻量级的只包含头文件(header-only
代码输入中...
·
2022-03-13 17:59
python
机器学习
c语言
pycharm
开发语言
Pytorch学习笔记(1)——手把手教你从0开始搭建个自己的神经网络
本文参考的是《
动手学深度学习
》(PyTorch版),链接在下面。由于照着网站上的代码敲一遍自己印象也不是很深刻,所以我整理了该书本中的内容,整理了自己的思路梳理了一遍。
野指针小李
·
2022-03-08 07:02
python
PyTorch
神经网络
pytorch
神经网络
深度学习
线性回归
神经网络构建流程
动手学深度学习
——深度学习简单的介绍
深度学习概念深度学习是一种机器学习技术,教授计算机执行人类与生俱来的活动:从示例中学习。深度学习是无人驾驶汽车背后的关键技术,使它们能够识别停车标志,或区分行人与路灯杆。它是手机、平板电脑、电视机和免提扬声器等消费类设备实现语音控制的关键。深度学习近来获得了大量关注,理由也很充分。深度学习正在实现以前不可能实现的成果。在深度学习中,计算机模型直接从图像、文本或声音中学习执行分类任务。深度学习模型可
橙子吖21
·
2022-03-05 07:53
动手学深度学习
深度学习
算法
人工智能
机器学习
神经网络
李沐《
动手学深度学习
》课程笔记:09 Softmax回归
目录09Softmax回归1.Softmax回归2.损失函数3.图片分类数据集4.Softmax回归的从零开始实现5.Softmax回归的简洁实现09Softmax回归1.Softmax回归2.损失函数3.图片分类数据集#MNIST数据集是图像分类中广泛使用的数据集之一,但作为基准数据集过于简单。我们将使用类似但复杂的Fashion-MNIST数据集importtorchimporttorchvi
feiwen110
·
2022-03-02 07:23
李沐《动手学深度学习》课程笔记
回归
深度学习
机器学习
《
动手学深度学习
》Task04:机器翻译及相关技术+注意力机制与Seq2seq模型+Transformer
文章目录1机器翻译及相关技术1.1机器翻译基本原理1.2Encoder-Decoder1.3SequencetoSequence模型1.4BeamSearch2注意力机制与Seq2seq模型2.1注意力机制2.2注意力机制的计算函数介绍2.3引入注意力机制的Seq2seq模型3Transformer3.1Transformer结构概念3.2Transformer结构层剖析3.3Transforme
Colynn Johnson
·
2022-03-02 07:21
动手学习深度学习
自然语言处理
神经网络
深度学习
pytorch
机器学习
《
动手学深度学习
》Task04 :机器翻译
一、机器翻译Encoder-Decoder(可以应用在对话系统、生成式任务中)encoder:输入到隐藏状态decoder:隐藏状态到输出classEncoder(nn.Module):def__init__(self,**kwargs):super(Encoder,self).__init__(**kwargs)defforward(self,X,*args):raiseNotImplement
小葡萄co
·
2022-03-02 07:50
动手学深度学习
PyTorch版--Task4、5--机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer;;卷积神经网络基础;leNet;卷积神经网络进阶
一.机器翻译及相关技术机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。主要特征:输出是单词序列而不是单个单词。输出序列的长度可能与源序列的长度不同。1.Encoder-Decoderencoder:输入到隐藏状态decoder:隐藏状态到输出classEncoder(nn.Module):def__init__(self,**kwa
华尔街的幻觉
·
2022-03-02 07:47
动手学深度学习
-
Pytorch版
深度学习
循环神经网络
《
动手学深度学习
》之现代卷积神经网络
文章目录深度卷积神经网络(AlexNet)AlexNet模型设计激活函数核心网络代码使用块的网络(VGG)核心网络代码网络中的网络(NiN)核心网络代码含并行连结的网络(GoogLeNet)核心网络代码批量归一化训练深层网批量归一化层全连接层卷积层残差网络(ResNet)函数类残差块核心网络代码深度卷积神经网络(AlexNet)训练神经网络的一些关键技巧的缺失,包括启发式参数初始化、随机梯度下降的
Qxw1012
·
2022-03-02 07:16
深度学习
人工智能
神经网络
深度学习
pytorch
动手学深度学习
Task04
Task041.机器翻译及相关技术机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。主要特征:输出是单词序列而不是单个单词。输出序列的长度可能与源序列的长度不同。importosos.listdir('/home/kesci/input/')out:[‘fraeng6506’,‘d2l9528’,‘d2l6239’]引入相关包:imp
l852131652
·
2022-03-02 07:06
深度学习
pytorch
机器学习
神经网络
《
动手学深度学习
》task4_2 注意力机制和Seq2seq模型
系统学习《
动手学深度学习
》点击这里:《
动手学深度学习
》task1_1线性回归《
动手学深度学习
》task1_2Softmax与分类模型《
动手学深度学习
》task1_3多层感知机《
动手学深度学习
》task2
shiinerise
·
2022-03-02 07:32
深度学习
attention
seq2seq
nlp
动手学深度学习
《
动手学深度学习
》(Pytorch版) 学习笔记——5.1二维卷积层
文章目录前言1二维互相关运算2二维卷积层3图像中物体边缘检测4通过数据学习核数组5互相关运算和卷积运算6特征图和感受野7小结前言Python初学者一枚,文章仅为个人学习记录,便于以后查看使用。卷积神经网络(convolutionalneuralnetwork)是含有卷积层(convolutionallayer)的神经网络。1二维互相关运算通常在卷积层中使用更加直观的互相关(cross-correl
書辭
·
2022-03-01 07:09
Python学习笔记
深度学习
卷积
《
动手学深度学习
》组队学习打卡Task5——卷积神经网络进阶
深度卷积神经网络(AlexNet)LeNet:在大的真实数据集上的表现并不尽如⼈意。1.神经网络计算复杂。2.还没有⼤量深⼊研究参数初始化和⾮凸优化算法等诸多领域。机器学习的特征提取:手工定义的特征提取函数神经网络的特征提取:通过学习得到数据的多级表征,并逐级表⽰越来越抽象的概念或模式。神经网络发展的限制:数据、硬件AlexNet首次证明了学习到的特征可以超越⼿⼯设计的特征,从而⼀举打破计算机视觉
A_first
·
2022-03-01 07:02
动手学深度学习
笔记(二)——线性神经网络
在学习深度神经网络之前,需要了解神经网络训练的基础知识。包括:定义简单的神经网络架构、数据处理、指定损失函数和如何训练模型。为了更容易学习,从经典算法————线性神经网络开始,了解神经网络的基础知识。文章目录1.1线性回归中的基本元素1.1.1线性模型1.1.2损失函数1.1.3随机梯度下降1.2矢量化加速1.3正态分布与平方损失1.4从线性回归到深度网络1.5总结1.1线性回归中的基本元素线性回
.别拖至春天.
·
2022-03-01 07:30
动手学深度学习
神经网络
深度学习
机器学习
线性回归
动手学深度学习
2——二维卷积层
二维卷积层深度学习中的卷积运算实际上是互相关运算。互相关运算:即输入数组和核数组对应位置相乘求和的过程。特征图:二维卷积层输出的二维数组可以看作是输入在空间维度(高和宽)上某一级的表征。感受野:影响元素x的前向计算的所有可能输入区域(可能大于输入的实际尺寸)叫做x的感受野。多输入通道和多输出通道多输入通道:当输入数据含多个通道时,需要构造一个输入通道数与输入数据的通道数相同的卷积核,从而能够与含多
123梦野
·
2022-03-01 07:27
深度学习
跟李沐学AI-
动手学深度学习
-卷积神经网络
文章目录从全连接层到卷积二维卷积层代码实现卷积层里的填充和步幅填充步幅代码实现多个输入和输出通道多个输入通道多个输出通道多个输入和输出通道1*1卷积层二维卷积层总结多输入和多输出的代码实现总结:池化层二维最大池化层填充、步幅和多个通道平均池化层总结池化层代码实现LeNet卷积神经网络(LeNet)代码实现总结从全连接层到卷积引例:分类猫和狗的图片不变性:平移不变性、局部性。图像的平移不变性使我们以
洋-葱
·
2022-03-01 07:57
跟李沐学AI-动手学深度学习
神经网络
pytorch
深度学习
上一页
27
28
29
30
31
32
33
34
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他