E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
百度飞桨深度学习笔记
百度深度学习paddle框架和学习平台
百度飞桨
深度学习框架关于使用飞桨框架的一些个人看法关于百度AIStudio平台和飞桨的看法关于平台和框架的几点建议关于使用飞桨框架的一些个人看法一开始我学习机器学习、深度学习入门看的是李宏毅的《机器学习
hsx_20180202
·
2023-02-01 12:57
深度学习
算法
神经网络
百度
人工智能
0基础快速入门,百度深度学习趣味案例实战营来啦!
为了让大家更快地入门深度学习,
百度飞桨
开设了深度学习趣味案例实战营,通过生活中的AI场景应用帮助大家更好地理解深度学习技术,3月15日-19日晚19:00,每天一小时,手把手带你使用CV、NLP领域最常用模型及应用
飞桨PaddlePaddle
·
2023-02-01 12:55
算法
编程语言
人工智能
大数据
python
【
深度学习笔记
整理-4.1】如何避免过拟合?
其实神经网络训练的过程就是一个欠拟合与过拟合拉锯的过程,一方面,我们希望我们的网络可以比较好的拟合训练数据,另一方面,我们又不希望它学习的那么好,以至于最终只是记忆住了全部答案。解决过拟合的问题非常重要,一般有如下四种方法:1.增加训练数据数量模型的训练数据越多,泛化能力自然也越好。这是因为更多的数据可以给我们找到更一般的模式。如果无法获取更多数据,次优解决方法是调节模型允许存储的信息量,或对模型
Y·Not·Try
·
2023-02-01 09:58
深度学习
机器学习
python
深度学习笔记
(一):卷积,池化
问题的提出常规的神经网络存在着一些致命的问题。对于大图片来说,如果使用神经网络,那么我们需要width*height*channel个weight,对于大图片来说这是难以处理的。首先这种全连接的方式是一种浪费,其次这么多weight很容易造成过拟合。所以我们提出了cnn。cnn的定义cnn是很多层layer的组合。每一层都通过一个不同的函数将一种activation转化为另一种。通常使用三种lay
Android笨鸟之旅
·
2023-02-01 05:36
深度学习笔记
—— 转置卷积
语义分割要做像素级别的预测,但是卷积不断地减小高宽,所以需要另外一种卷积把小的高宽变大。转置卷积:输入中的单个元素与kernel按元素做乘法但不相加,然后按元素写回到原始的地方。再谈转置卷积:换算成卷积之后,卷积是正常卷积,也就是填充为0,步幅为1,与前面填充和步幅是无关的。如果要做逆变换需要能推出来:n>=sn'+k-2p-s(刚好整除的情况下取等号)转置卷积是形状上做逆运算,但元素值不是。转置
Whisper_yl
·
2023-02-01 04:59
#
深度学习
深度学习
【01李宏毅
深度学习笔记
2021春季】课程笔记Introduction&Regression(简介和回归)
01-1Introduction课程网址:https://speech.ee.ntu.edu.tw/~hylee/ml/2021-spring.html1.PrerequisiteMathCalculus(微积分)Linearalgebra(线性代数)Probability(概率)ProgrammingPythonPyTorchHardware:不需要硬件设备,在GoogleColab上运行2.A
is_colorful
·
2023-01-31 18:56
深度学习
深度学习
回归
人工智能
动手学
深度学习笔记
第四章(多层感知器)
4.1多层感知器y.backward(torch.ones_like(x),retain_graph=True)这里的retain_graph=True参数:pytorch进行一次backward之后,各个节点的值会清除,这样进行第二次backward会报错,因为虽然计算节点数值保存了,但是计算图结构被释放了,如果加上retain_graph==True后,可以再来一次backward。关于det
冬青庭院
·
2023-01-31 14:25
我的动手学深度学习笔记
深度学习
pytorch
python
【李宏毅机器学习训练营】-PM2.5预测项目心得体会
【李宏毅机器学习训练营】-PM2.5预测项目心得体会利用飞桨实现PM2.5预测首先,很感谢
百度飞桨
给我们提供这样的一个机会可以接触到现在热门的机器学习以及深度学习知识,作为一名大二的学生,在进入大学的时候就对
极丨光
·
2023-01-31 09:58
机器学习
算法
深度学习笔记
(一)
一张图片被表示成三维数组的形式,每个像素的值从0到255,图片上的值代表像素点,值越大越亮。例如:300*1003指的是图片的长宽*颜色3=RGB1=黑白图一、机器学习的步骤:1.收集数据并给定标签。标签的意思是加入你有一对猫和狗的图片,你要给猫图片定义一个猫的标签,给狗的图片定义一个狗的标签。2.训练一-个分类器,例如逻辑回归、随即森林3.测试,评估。二、找参数:把数据分为train、val、t
奋斗的猪猪霞
·
2023-01-30 21:08
深度学习
机器学习
人工智能
深度学习笔记
(三)——对Tensor索引操作函数gather的解释
索引操作函数gather函数详解gather函数的输出规则第一条规则第二条规则gather函数内部的代码机理推测代码示例输出结果参考文献事先声明:本文只会对二维张量的gather操作进行介绍,三维张量的gather操作规则在csdn上的博文屡见不鲜。本文的解释是从个人的理解出发,相信解释也会对理解三维张量的操作规则起到触类旁通的作用。gather函数的输出规则out[i][j]=input[ind
小白成长之旅
·
2023-01-30 20:19
深度学习(基于pytorch)
深度学习
pytorch
深度学习笔记
2019独角兽企业重金招聘Python工程师标准>>>注意不要在舒适区练习。也就是如果你俯卧撑能做100个,那么每次做50个,都是你的舒适区,是没有任何效果的。不要在恐慌区练习。初学吉他的,上来扫几个和弦还行,直接学solo一段加州旅馆肯定会挂。同样没有任何效果。要在学习区练习。学习区就是舒适区之外,恐慌区之内的部分。即你踮脚使劲伸手,是能够到的高度,有难度,但是是可实现的。要有反馈。如果你没有足
Mathilda91
·
2023-01-30 19:31
人工智能
python
【
深度学习笔记
】卷积网络中的卷积与互相关的那点事
卷积层的来源与作用深度学习的计算机视觉是基于卷积神经网络实现的,卷积神经网络与传统的神经网络(可以理解为多层感知机)的主要区别是卷积神经网络中除了全连接层外还有卷积层和pooling层等。卷积层算是图像处理中非常基础的东西,它其实也是全连接层演变来的,卷积可视为局部连接和共享参数的全连接层。局部连接:在全连接层中,每个输出通过权值(weight)和所有输入相连。而在视觉识别中,关键性的图像特征、边
秋天的波
·
2023-01-30 18:20
深度学习
机器学习
计算机视觉
深度学习
网络
计算机视觉
【
深度学习笔记
】为什么用F1-score
问题为什么使用F1score?(这里主要讨论为何使用F1score而不是算术平均)F1scoreF1score是分类问题中常用的评价指标,定义为精确率(Precision)和召回率(Recall)的调和平均数。F1=21Precision+
秋天的波
·
2023-01-30 18:20
机器学习
深度学习
计算机视觉
深度学习
人工智能
【
深度学习笔记
】弄明白感受野大小的计算问题
感受野Receptivefield(RF)的概念卷及神经网络中每一层输出的特征图(featuremap)中的每一个像素映射到原始输入图像的区域大小。卷积输入输出的大小关系根据感受野的概念,大家可以体会到感受野的计算应该与卷积的计算是相反的过程,所以先回顾下卷积输入输出的大小关系公式:(以高度为例)Heightout=(Height
秋天的波
·
2023-01-30 18:49
深度学习
计算机视觉
机器学习
深度学习
计算机视觉
人工智能
深度学习笔记
(一)记录训练过程
深度学习笔记
(一)记录训练过程前言一、tensorboardX中SummaryWriter记录训练过程二、总结前言本帖子主要记录深度学习编程过程中的一些笔记,欢迎指导批评。
汤姆和佩琦
·
2023-01-30 05:40
pytorch深度学习
深度学习
pytorch
python
PyTorch
深度学习笔记
(十六)优化器
课程学习笔记,课程链接优化器:神经网络的学习的目的就是寻找合适的参数,使得损失函数的值尽可能小。解决这个问题的过程为称为最优化。解决这个问题使用的算法叫做优化器。在PyTorch官网中,将优化器放置在torch.optim中,并详细介绍了各种优化器的使用方法。现以CIFAR10数据集为例,损失函数选取交叉熵函数,优化器选择SGD优化器,搭建神经网络,并计算其损失值,用优化器优化各个参数,使其朝梯度
小于同学饿了
·
2023-01-29 11:14
PyTorch
pytorch
深度学习
神经网络
PyTorch
深度学习笔记
(四)PyCharm及Jupyter使用对比
课程学习笔记,课程链接1、Pycharm确定程序使用的pytorch的环境运行程序,为python文件设置python解释器第一种方式第二种方式右击2、Jupyter新建项目及使用此时打开默认以该路径为地址而打开的目录创建新文件3、三种代码编辑方式对比
小于同学饿了
·
2023-01-29 11:44
PyTorch
pytorch
pycharm
深度学习
Pytorch
深度学习笔记
①:线性回归+基础优化方法
一、线性回归首先,在介绍线性回归之前,先用一个简化的模型作为引入。假设某地的房价影响因素有地理位置、人流量以及面积大小,分别记为x1、x2、x3。而房屋的最终成交价y=w1x1+w2x2+w3x3+b。此即为线性模型,给定了n维输入X=[x1,x2,...,xn]T,以及模型的n维权重w=[w1,w2,...,wn]T和标量偏差b,模型的输出即为输入的加权和:y=w1x1+w2x2+...+wnx
元気Hu.sir
·
2023-01-29 11:10
Pytorch深度学习笔记
深度学习
pytorch
算法
Pytorch
深度学习笔记
Pytorch
深度学习笔记
1.环境及相关依赖2.前导3.部分概念3.1深度学习3.2tensor3.3SVM3.4超参数3.5迁移学习4.基于迁移学习的实现4.1多分类4.1.1加载数据4.1.2训练4.1.3
毋丶疗
·
2023-01-29 11:37
python
pytorch
sklearn
python
计算机视觉
深度学习
pytorch
深度学习笔记
在深度学习中,在新数据上运行训练过的模型的过程被称为推理。为了进行推理我们需要将网络置于eval模式
flamezhu
·
2023-01-29 11:05
大数据
PyTorch
深度学习笔记
反向传播:正向传播是z=x1*w1+x2*w2+b,然后通过激活函数表示成一个想要的曲线(比如要表示它的概率,则一般希望是在0-1区间内,使用sigmond函数)反向传播是指,你的w1,w2和b是随机生成的,需要对它进行调整,使用某些统计学公式计算预测值和实际值的差Loss后,对w1,w2,b进行调整,这就是反向传播,调节大小例如是α*梯度下降函数,例如Adagrad,Adam,Adamax,AS
Galaxy_5688
·
2023-01-29 11:01
Python
深度学习
pytorch
人工智能
[
深度学习笔记
(1)]深度学习入门
本系列是博主刚开始接触深度学习时写的一些笔记,写的很早了一直没有上传,趁着假期上传一下,作为分享,希望能帮助到你。目录前言一、什么是深度学习二、深度学习的应用三、深度神经网络的难题3.1梯度消失/梯度爆炸3.2过拟合3.3网络退化总结前言近年来,随着人工智能的发展,深度学习已经成为了热门的学科。在详细阐述深度学习之前,必须先理清人工智能、机器学习和深度学习之间的区别。从这张图可以看出,机器学习是人
阿飞没有花福蝶
·
2023-01-28 13:53
深度学习
深度学习
python
人工智能
pytorch
深度学习笔记
—从入门到入门
深度学习深度学习入门神经网络以及误差反向传播神经元模型传统神经网络激活函数‘层’的概念误差反向传播算法神经网络到深度学习经典深度学习网络模型语义分割经典FCN模型(待)deeplabv3+模型(待)目标检测yolo系列(待)深度学习入门深度学习本质:建立输入与输出之间的对应关系神经网络以及误差反向传播传统神经网络层数比较浅,一般3到5层神经元模型每个神经元接受上层传来的数据,并将这些数据求加权和,
A1chemist
·
2023-01-28 13:22
深度学习
神经网络
Tensorflow
深度学习笔记
5 经典卷积神经网络--Alexnet
本文内容来自《Tensorflow深度学习算法原理与编程实战》第八章论文:《ImageNetClassificationwithDeepConvolutionalNeuralNetworks》背景介绍第一个典型的CNN是LeNet5网络结构,但是第一个引起大家注意的网络却是AlexNet,也就是文章《ImageNetClassificationwithDeepConvolutionalNeural
(●—●)_(●—●)
·
2023-01-27 11:27
python
神经网络
深度学习
fit函数 model_
深度学习笔记
38_利用回调函数保存最佳的模型
利用回调函数保存最佳的模型ModelCheckpoint与EarlyStopping回调函数对于EarlyStopping回调函数,最好的使用场景就是,如果我们发现经过了数轮后,目标指标不再有改善了,就可以提前终止,这样就节省时间。该函数的具体参数如下:keras.callbacks.EarlyStopping(monitor='val_loss',min_delta=0,patience=0,v
weixin_39824223
·
2023-01-27 07:59
fit函数
model
吴恩达
深度学习笔记
.PDF
吴恩达深度学习课程,是公认的最优秀的深度学习课程之一,目前没有教材,只有视频,本文提供完整笔记下载,这本笔记非常适合和深度学习入门。0.导语黄海广博士和同学将吴恩达老师深度学习视频课程做了完整的笔记,笔记pdf放在github上,下载后可以打印。笔记基于课程视频和字幕制作。感谢吴恩达老师为广大爱好者提供如此实用的教程!目前仅在Github渠道,累计下载超过了100万次!本次更新:很多同学说看不懂公
风度78
·
2023-01-27 02:19
人工智能
机器学习
深度学习
python
java
行人跟踪数据集转为yolov5格式的数据集、Labelme以及可视化
数据集这些数据集来自
百度飞桨
的PaddleDetection项目。飞桨对一些特殊格式的数据做了格式的统一。
AI浩
·
2023-01-26 13:01
目标跟踪
物体检测
1024程序员节
深度学习笔记
(1)(CNN)
1.Loss损失函数的作用损失函数用来评价模型的预测值和真实值不一样的程度,深度学习训练模型的时候就是通过计算损失函数,更新模型参数,从而减小优化误差,直到损失函数值下降到目标值或者达到了训练次数。均方误差meansquareerror(MSE):MSE表示了预测值与目标值之间差值的平方和然后求平均。每个样本的平均平方损失。MSE的计算方法是平方损失除以样本数。一种衡量指标,用于衡量模型的预测偏离
来自新世界、
·
2023-01-26 12:46
深度学习
人工智能
cnn
深度学习笔记
---数值微分版 对MNIST数据集的二层神经网络的学习实现
#1.神经网络的学习前提和步骤前提神经网络存在合适的权重和偏置。步骤一(挑选mini-batch)从训练数据中随机选出一部分数据,这部分数据称为mini-batch。我们的目标是减少mini-batch这部分数据的损失函数的值。步骤二(计算梯度)为了减小mini-batch这部分数据的损失函数的值,需要求出有关各个权重参数的梯度。步骤三(更新参数)将权重参数沿梯度方向进行微小更新。步骤四(重复)重
武松111
·
2023-01-26 08:30
python与深度学习
深度学习笔记
(十九)—— Training Issues
Inthispart,wewouldspendtimerevisingcommonskillsusedintrainingmodel.Inshortversion,easybutuseful.Inlongversion,wewouldintroducecontentinOutlinestepbystep.WemainlyreferencefromsklearnandPytorchEditedbyJ
Nino_Lau
·
2023-01-25 23:34
深度学习笔记
(二十一)学习率衰减和局部最优问题
学习率衰减考虑学习率不变的情况,梯度下降难以在最后达到收敛,如果采用学习率衰减方式呢?在刚开始能承受大步伐的梯度下降,随着梯度下降的进行,学习率衰减有利于最后收敛到一个趋近于最低点。在1epoch内(1passthroughdata):α=α01+decay_rate∗epoch_num\alpha=\frac{\alpha_0}{1+decay\_rate*epoch_\_num}α=1+dec
Mr.zwX
·
2023-01-25 10:10
【深度学习/神经网络】Deep
Learning
【目标检测】
深度学习笔记
:Focal Loss
https://www.zhihu.com/question/63581984https://spaces.ac.cn/archives/4733https://www.cnblogs.com/xuanyuyt/p/7444468.html深度学习中的目标检测网络:retinanet和refinedet:都解决了train过程中正负anchor不平衡的问题,RefineDet采用negativea
Mein_Augenstern
·
2023-01-23 08:48
目标检测
目标检测
focal
loss
深度学习
CS231n学习笔记--Assignment2/3
1.Assignment21.1全连接神经网络深度学习小白——CS231nAssignment2(FC)
深度学习笔记
8:softmax层的实现1.2卷积神经网络深度学习小白——CS231nAssignment2
Kuekua-seu
·
2023-01-21 16:03
深度学习
CS231n学习笔记
深度学习
cs231n
吴恩达
深度学习笔记
-机器学习策略(第8课)
机器学习策略一、进行误差分析二、清除标注错误的数据三、快速搭建你的第一个系统,并进行迭代四、在不同的划分上进行训练并测试五、不匹配数据划分的偏差和方差六、解决数据不匹配七、迁移学习八、多任务学习九、什么是端到端的深度学习十、是否使用端到端的深度学习一、进行误差分析当我们的模型还没有达到人类水平,可以人工检查一下你的算法犯的错误,也许能让我们知道下一步能做什么,这个过程就叫做误差分析。例如在猫分类器
快乐活在当下
·
2023-01-21 08:22
吴恩达深度学习
深度学习
人工智能
机器学习
python cnn库_
深度学习笔记
之使用Faster-Rcnn进行目标检测 (实践篇)
实验我使用的代码是Python版本的FasterRcnn,官方也有Matlab版本的,链接如下:环境配置按照官方的README进行配置就好,不过在这之前大家还是看下硬件要求吧Fortrainingsmallernetworks(ZF,VGG_CNN_M_1024)agoodGPU(e.g.,Titan,K20,K40,…)withatleast3GofmemorysufficesFortraini
weixin_39821718
·
2023-01-20 20:54
python
cnn库
百度飞桨
PaddlePaddle 7日打卡营心得体会
百度飞桨
PaddlePaddle七日打卡营结营心得体会撰写日期:2020-04-28 从第一天的python入门起,我就对python心有好感,本地环境的搭建,由于是使用windows操作走了很多弯路
宿者朽命
·
2023-01-19 20:22
小白python学习
python
百度飞桨
深度学习7日打卡营 课程总结1
百度飞桨
深度学习7日打卡营课程总结1课程链接https://aistudio.baidu.com/aistudio/course/introduce/7073飞桨官网https://www.paddlepaddle.org.cn
dream.becoming
·
2023-01-19 20:22
百度飞桨
paddle
deep
learning
深度学习
百度飞桨
深度学习7日打卡营 课程总结5
百度飞桨
深度学习7日打卡营课程总结5课程链接https://aistudio.baidu.com/aistudio/course/introduce/7073飞桨官网https://www.paddlepaddle.org.cn
dream.becoming
·
2023-01-19 20:22
百度飞桨
深度学习
深度学习笔记
-经典分割算法总结&后续论文思路
经典分割算法汇总(6篇经典语义分割网络,非实时性)FCN:语义分割端到端的开端U-Net&FushionNet:医学分割算法中的龙头SegNet&DeconvNet:对称编解码结构DeepLab系列:从v1到v3+,算法越来越完善,结果越来越好GCN:角度一,重用大卷积核ExFuse&DFN:角度二,宏观角度看待语义分割接下来进度与调优思路以Unet为基础,在自建数据集上跑出Baseline分数对
地表最菜研究生
·
2023-01-19 15:14
深度学习笔记
语义分割
论文
深度学习
算法
神经网络
飞桨赋能润建股份打造智能化路网系统,实现精度速度全面提升
作为通信信息网络与能源网络的管维者,润建股份有限公司集成了飞桨全流程开发套件进行AI研发,打造了基于
百度飞桨
的智能化路网监控指挥系统。
飞桨PaddlePaddle
·
2023-01-19 13:37
paddlepaddle
人工智能
大数据
深度学习
PaddleTS在工业机械状态监测中的智能应用
作为全球自动化测试和测量领域的领导者,NI与
百度飞桨
探索开放创新方向,通过NI+飞桨联创方案,实现监测智能化突围,助力中国智能制造迈上新高度,同时期待与所有合作伙伴一起探索和拓展智能制造的智慧未来。
飞桨PaddlePaddle
·
2023-01-19 13:06
人工智能
百度
吴恩达
深度学习笔记
-Logistic Regression(第1课)
深度学习笔记
第一课深度学习介绍1、什么是神经网络?2、用神经网络进行监督学习3、深度学习为什么会兴起?
快乐活在当下
·
2023-01-19 09:35
吴恩达深度学习
深度学习
python
机器学习
【
深度学习笔记
】样本不平衡处理方法
类别不平衡处理方法前提假设:小样本数量为N。过采样小样本(SMOTE),欠采样大样本过采样:直接复制小样本,形成数量上的均衡——但会由于数据单一造成过拟合。欠采样:随机去掉一部分多数样本,形成数量上的均衡——可能丢失一些重要的信息。将多数样本分成N个簇,取每个簇的中心点作为多数类的样本,再结合少数类的所有样本进行训练,这样可以保证多数类样本在特征空间的分布特性。集成学习将多数类样本随机分成多组,每
秋天的波
·
2023-01-18 13:29
深度学习
机器学习
计算机视觉
深度学习
人工智能
编程小菜学习之李沐老师动手学
深度学习笔记
-36数据增广
#36图片增广importmatplotlib.pyplotaspltimporttorchimporttorchvisionfromtorchimportnnfromd2limporttorchasd2ld2l.set_figsize()img=d2l.Image.open(r'D:\worksoftware\PycharmProjects\pythonProject\image\dog.png
编程小cai
·
2023-01-18 10:19
深度学习
学习
计算机视觉
深度学习(十四):数据增强Data Augmentation
编程语言:Python参考资料:吴恩达老师的深度学习系列视频吴恩达老师
深度学习笔记
整理深度学习500问唐宇迪深度学习入门视频课程笔记下载:深度学习个人笔记完整版为什么要使用数据增强数据增强,也称数据扩充
打不死的小黑
·
2023-01-18 10:10
深度学习
计算机视觉
深度学习
计算机视觉
数据增强
图像处理
【学习周报】
深度学习笔记
第二周
学习目标:吴恩达深度学习课程week2学习内容:梯度下降法(GradientDescent)计算图(ComputationGraph)逻辑回归中的梯度下降(LogisticRegressionGradientDescent)向量化(Vectorization)Python中的广播(BroadcastinginPython)学习时间:10.3-10.9学习产出:1.梯度下降法(GradientDes
不要卷我啊
·
2023-01-18 08:54
学习
深度学习笔记
-第三周
title:
深度学习笔记
-第三周date:2022-12-1420:54:30【3.1神经网络概况】x代表输入特征,参数W和b,上标[]表示层数。
?ZERO?
·
2023-01-18 07:18
深度学习笔记
深度学习
人工智能
动手学
深度学习笔记
day5
多层感知机1、模型输出并不是和每一个特征都是线性相关的,在特征之间的右复杂的相关交互作用。2、每一层都输出到上面的层,直到生成最后的输出。我们可以把前L−1层看作表示,把最后一层看作线性预测器。这种架构通常称为多层感知机(multilayerperceptron),通常缩写为MLP。多层感知机中的层数为隐藏层和输出层。(不包含输入层)。没有加激活函数的话,仿射函数的仿射函数本身就是仿射函数,我们没
努力学习的廖同学
·
2023-01-17 22:34
深度学习
动手学
深度学习笔记
day6
前向传播前向传播(forwardpropagation或forwardpass)指的是:按顺序(从输入层到输出层)计算和存储神经网络中每层的结果。反向传播反向传播(backwardpropagation或backpropagation)指的是计算神经网络参数梯度的方法。简言之,该方法根据微积分中的链式规则,按相反的顺序从输出层到输入层遍历网络。该算法存储了计算某些参数梯度时所需的任何中间变量(偏导
努力学习的廖同学
·
2023-01-17 22:34
深度学习
神经网络
动手学
深度学习笔记
day8
层和块块由类(class)表示。它的任何子类都必须定义一个将其输入转换为输出的前向传播函数,并且必须存储任何必需的参数。每个块必须提供的基本功能:将输入数据作为其前向传播函数的参数。通过前向传播函数来生成输出。请注意,输出的形状可能与输入的形状不同。例如,我们上面模型中的第一个全连接的层接收一个20维的输入,但是返回一个维度为256的输出。计算其输出关于输入的梯度,可通过其反向传播函数进行访问。通
努力学习的廖同学
·
2023-01-17 22:34
深度学习
神经网络
上一页
7
8
9
10
11
12
13
14
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他