E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
《深度学习笔记》
深度学习笔记
-Neural Networks and Deep Learning-2-无隐藏层识别猫
NeuralNetworksandDeepLearning:https://www.coursera.org/learn/neural-networks-deep-learning/home/week/2这段时间会一直更深度学习的内容。先明确说明代码不是我写的,我只是整理,来源于Cousera的代码,将代码大幅度缩短,补充说明。-1.效果h5文件,pdf和ipynb也有整理好的现成的,里面相对更详
mayavii
·
2020-06-26 00:20
深度学习
深度学习笔记
深度学习笔记
-Hyperparameter tuning-2.1.1-initialization初始化
ImprovingDeepNeuralNetworks-Hyperparametertuning,RegularizationandOptimization:https://www.coursera.org/learn/deep-neural-network这段时间会一直更深度学习的内容。先明确说明代码不是我写的,我只是整理,来源于Cousera的代码,将代码大幅度缩短,补充说明。这个章节属于Hy
mayavii
·
2020-06-26 00:20
深度学习
深度学习笔记
深度学习笔记
-Neural Networks and Deep Learning-3-1个隐藏层分类
NeuralNetworksandDeepLearning:https://www.coursera.org/learn/neural-networks-deep-learning/home/week/3这段时间会一直更深度学习的内容。先明确说明代码不是我写的,我只是整理,来源于Cousera的代码,将代码大幅度缩短,补充说明。还是分成三段,-1是效果0.代码1.扩展和补充-1.效果0.代码imp
mayavii
·
2020-06-26 00:20
深度学习
深度学习笔记
深度学习笔记
-第3章-《深度学习入门——基于Python的理论与实现》
这个系列的文章肯定不是很长,整个整合到机器学习-笔记目录
深度学习笔记
——《深度学习入门——基于Python的理论与实现》第3章——神经网络神经网络和感知机,我觉的是一回事,但是表示的方式发生了变化。
mayavii
·
2020-06-26 00:19
深度学习
深度学习笔记
深度学习笔记
-第2章-《深度学习入门——基于Python的理论与实现》
这个系列的文章肯定不是很长,整个整合到机器学习-笔记目录
深度学习笔记
——《深度学习入门——基于Python的理论与实现》第2章——感知机先概括一下,整个第二章写的是感知机(perceptron)。
mayavii
·
2020-06-26 00:49
深度学习
深度学习笔记
深度学习笔记
(四)---YOLO目标检测
以下笔记来源:[1].AndrewNg的卷积神经网络week3[2].【吴恩达课后编程作业】Course4-卷积神经网络-第三周作业(https://blog.csdn.net/u013733326/article/details/80341740#commentsedit)[3].yolo.h5文件问题的解决-吴恩达深度学习:目标检测之YOLO算法(https://blog.csdn.net/S
Jayden yang
·
2020-06-25 22:36
深度学习笔记
深度学习笔记
_tensorflow2.0_过拟合(二)
减少过拟合方法:交叉验证normalization学习率调整,learningratedecaymomentum动量调整k折交叉检验:正则化:更小的权值w,从某种意义上说,表示网络的复杂度更低,对数据的拟合刚刚好(这个法则也叫做奥卡姆剃刀)添加正则化相当于参数的解空间添加了约束,限制了模型的复杂度L1正则化的形式是添加参数的绝对值之和作为结构风险项,L2正则化的形式添加参数的平方和作为结构风险项L
夏季梦幻想
·
2020-06-25 21:51
人工智能
深度学习笔记
:随机种子的作用
1.随机数和伪随机数1.1随机数真正的随机数是使用物理现象产生的:比如掷钱币、骰子、转轮、使用电子元件的噪音、核裂变等等,这样的随机数发生器叫做物理性随机数发生器,它们的缺点是技术要求比较高。----百度百科根据百科上的定义可以看到,真随机数是依赖于物理随机数生成器的。使用较多的就是电子元件中的噪音等较为高级、复杂的物理过程来生成。使用物理性随机数发生器生成的真随机数,可以说是完美再现了生活中的真
Activewaste
·
2020-06-25 20:36
深度学习
深度学习笔记
——第八章 深度模型中的优化(一)
花书的阅读笔记英文版地址:http://www.deeplearningbook.org优化问题:寻找神经网络上一组参数θ,以显著降低代价函数J(θ),其中J(θ)=整个训练集的性能评估+额外正则项8.1学习和纯优化的不同概念:学习:深度模型训练的优化算法纯优化:传统的优化算法经验风险:训练集上的期望误差批量/确定性梯度算法:使用全部训练集样本的算法注:只有在此时指全部训练集,其余时候指一组样本随
Tiaaa米
·
2020-06-25 10:36
花书
深度学习笔记
之三——tensorflow实现wide&deep模型
wide&deep模型原理十分简单,说白了就是wide类模型与deep类模型的组合(借鉴googlepaper,但是选用模型不同)。提出两个问题:1、什么是wide类、deep类?wide类模型一般指的是复杂度不高的线性模型,以LR最为常见。deep类模型一般指的是复杂度比较高、拟合数据能力强的神经网络,boosting、bagging类模型应该也是可以的。2、为什么要将他们组合起来?换句话说,为
落在地上的乐乐
·
2020-06-25 10:54
深度学习
ML实战
使用阿里云ECS进行
深度学习笔记
学生一枚,尝试一下用阿里云的GPU服务器跑深度学习。基本过程参照这篇博客https://blog.csdn.net/Lo_Bamboo/article/details/78601328记录一下其中遇到的问题1.创建完实例查看一下配置查看显卡信息,驱动和cuda版本:nvidia-smi2.下载Anaconda可以在本机下载后ftp传上去,虽然是清华的源,我下的时候还是卡了的,时间就是金钱啊。3.创
Poke_Huang
·
2020-06-25 09:17
吴恩达
深度学习笔记
-卷积神经网络
04.卷积神经网络第一周卷积神经网络1.1计算机视觉1.2边缘检测示例垂直边缘检测vertical1.3更多边缘检测内容边缘过渡水平边缘检测horizontal1.4padding问题:卷积后图片缩小;边缘信息丢失过滤器(卷积核)一般都为奇数(原因:1、可以对称填充;2、有中心点)输出行=n+2*p-f+1Valid卷积:不填充;Same卷积:填充要使输出行与输入行相等,即n+2*p-f+1=n那
小墨青
·
2020-06-25 07:42
Python
机器学习
卷积层详述
本系列文章为
深度学习笔记
,方便自己回看。卷积计算概述对于图像识别来说,卷积神经网络的效果要好于全连接神经网络。我在首次接触卷积时,隐约记得在大一高数课程中曾经提及,但具体已经无法名状。
Zeus_dad
·
2020-06-25 05:21
机器学习
人工智能
深度学习笔记
(四)--LeNet-5网络
类LeNet-5卷积运算网络实例假设,有一张大小为32×32×3的输入图片,这是一张RGB模式的图片,你想做手写体数字识别。32×32×3的RGB图片中含有某个数字,比如7,你想识别它是从0-9这10个数字中的哪一个,我们构建一个神经网络来实现这个功能。LeNet-5是多年前YannLeCun创建的,此例子采用的模型并不是LeNet-5,但是受它启发,许多参数选择都与LeNet-5相似。输入是32
小熊猫3
·
2020-06-25 04:04
深度学习笔记
深度学习笔记
(六)--VGG16网络
内容来自吴恩达老师视频哦,网易云课堂有哦VGG-16VGG,也叫作VGG-16网络。值得注意的一点是,VGG-16网络没有那么多超参数,这是一种只需要专注于构建卷积层的简单网络。首先用3×3,步幅为1的过滤器构建卷积层,padding参数为same卷积中的参数。然后用一个2×2,步幅为2的过滤器构建最大池化层。因此VGG网络的一大优点是它确实简化了神经网络结构,下面我们具体讲讲这种网络结构。假设要
小熊猫3
·
2020-06-25 04:04
深度学习笔记
从零开始的
深度学习笔记
(四)手把手教你用pytorch制作一个属于自己的数据集
写在前面在使用CNN训练了MNIST数据集之后,不知道大家会不会有一种想要制作一个属于自己的数据集,并且用来训练的冲动呢?其实想要使用pytorch制作一个简单的数据集一点也不难,下面我们就一起来看看具体的实现方法吧。在制作一个自己的数据之前,我们需要分析一下MNIST数据集,然后依葫芦画瓢,制作一个属于自己的数据集。首先,我们需要知道,MNIST数据集里面首先有图片,其次,每张图片都有对应的标签
白鹿如昔
·
2020-06-25 01:35
深度学习
深度学习笔记
(0)——机器学习基本概念
本篇博客仅针对毫无机器学习理论背景的人,其他人可以直接跳过。机器学习(machinelearning)是最近非常火的一个领域,关于其一些基本定义百度百科、维基百科或者网上随便都可以找到很多资料,所以这里不做过多解释。就我个人理解,通常任何问题我们都可以用一个数学模型来解释:y=f(x)在统计学习方法里面通常使用的是P(y|x),为了方便理解,不妨不严谨地把P看作是一种特殊的f()我们解决一个问题有
迷川浩浩_ZJU
·
2020-06-25 00:32
深度学习
动手学
深度学习笔记
3过拟合、欠拟合
一、欠拟合与过拟合误差:训练误差(trainingerror):指模型在训练数据集上表现出的误差泛化误差(generalizationerror):指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。机器学习模型应关注降低泛化误差。Q:如何计算误差?A:引入损失函数(MSE、交叉熵损失)。验证集:从严格意义上讲,测试集只能在所有超参数和模型参数选定后使用一次。因为
programer_cao
·
2020-06-24 20:08
吴恩达
深度学习笔记
(89)-迁移学习(Transfer Learning)
迁移学习(TransferLearning)如果你要做一个计算机视觉的应用,相比于从头训练权重,或者说从随机初始化权重开始,如果你下载别人已经训练好网络结构的权重,你通常能够进展的相当快,用这个作为预训练,然后转换到你感兴趣的任务上。计算机视觉的研究社区非常喜欢把许多数据集上传到网上,如果你听说过,比如ImageNet,或者MS_COCO,或者Pascal类型的数据集,这些都是不同数据集的名字,它
极客Array
·
2020-06-24 19:06
NLP中的
深度学习笔记
序章1.NLP对人类语言进行自动分析和表示的计算技术。2.与自然语言相关的任务:子结构解析、词性标注、机器翻译、对话系统3.深度学习架构和算法为计算机视觉和传统模式识别领域带来了巨大进展->NLP4.之前解决NLP问题的的机器学习方法基于浅层模型(SVM、logistic回归),在非常高维和稀疏的特征(one-hotencoding)(独热编码)上训练得到。5.近年由于基于稠密向量表征的神经网络对
袁何苏
·
2020-06-24 19:43
python
NLP
【连载】
深度学习笔记
6:神经网络优化算法之从SGD到Adam
从前面的学习中,带大家一起学会了如何手动搭建神经网络,以及神经网络的正则化等实用层面的内容。这些都使得我们能够更深入的理解神经网络的机制,而并不是初次接触深度学习就上手框架,虽然对外宣称神经网络是个黑箱机制,但是作为学习者我们极度有必要搞清楚算法在每个环节到底都干了些什么。今天笔者需要讲的是深度学习的一个大的主题——优化算法。采用何种方式对损失函数进行迭代优化,这是机器学习的一大主题之一,当一个机
Game_Tom
·
2020-06-24 12:39
人工智能
人工智能
深度学习
【连载】
深度学习笔记
8:利用Tensorflow搭建神经网络
在笔记7中,和大家一起入门了Tensorflow的基本语法,并举了一些实际的例子进行了说明,终于告别了使用numpy手动搭建的日子。所以我们将继续往下走,看看如何利用Tensorflow搭建神经网络模型。尽管对于初学者而言使用Tensorflow看起来并不那么习惯,需要各种步骤,但简单来说,Tensorflow搭建模型实际就是两个过程:创建计算图和执行计算图。在deeplearningai课程中,
Game_Tom
·
2020-06-24 12:39
人工智能
人工智能
深度学习
神经网络
深度学习笔记
5:正则化与dropout
在笔记4中,详细阐述了机器学习中利用正则化防止过拟合的基本方法,对L1和L2范数进行了通俗的解释。为了防止深度神经网络出现过拟合,除了给损失函数加上L2正则化项之外,还有一个很著名的方法——dropout.废话少说,咱们单刀直入正题。究竟啥是dropout?dropout是指在神经网络训练的过程中,对所有神经元按照一定的概率进行消除的处理方式。在训练深度神经网络时,dropout能够在很大程度上简
Game_Tom
·
2020-06-24 12:39
人工智能
人工智能
深度学习
【连载】
深度学习笔记
7:Tensorflow入门
从前面的学习笔记中,笔者和大家一起使用了numpy一步一步从感知机开始到两层网络以及最后实现了深度神经网络的算法搭建。而后我们又讨论了改善深度神经网络的基本方法,包括神经网络的正则化、参数优化和调参等问题。这一切工作我们都是基于numpy完成的,没有调用任何深度学习框架。在学习深度学习的时候,一开始不让大家直接上手框架可谓良苦用心,旨在让大家能够跟笔者一样,一步一步通过numpy搭建神经网络的过程
Game_Tom
·
2020-06-24 12:39
人工智能
人工智能
深度学习
机器学习
【
深度学习笔记
】正则化(Regularization)
本文主要是对吴恩达《深度学习工程师》在线课程关于正则化部分的笔记整理,并进行了一定的扩展。一、何为正则化在《深度学习》【1】一书中,正则化的定义是“对学习算法的修改——旨在减少泛化误差而不是训练误差”。我们知道正则化的目的是减少过拟合,对应定义中的泛化误差。那是不是减少过拟合的方法都可以叫做正则化呢?这个问题我暂时还无法解答。通过查阅相关资料我发现,通常在机器学习中大家所说的正则化是对目标函数添加
云若祯初
·
2020-06-24 12:24
深度学习
Momentum、RMSprop、Adam
吴恩达
深度学习笔记
要说Momentum、RMSprop、Adam这三个优化器就要先讲讲指数加权平均指数加权平均上图是一年中365天的温度变化指数加权平均的等式是:Vt=βVt-1+(1-β)θtθt代表第
lx127372
·
2020-06-24 10:40
深度学习
深度学习
【Deep Learning 】深度模型中的优化问题(一)SGD
以下节选自个人
深度学习笔记
。内容整合来源于网络与个人理解。先来看一下学习步长:口学习步长的设置是个难题:若学习步长过大,则目标函数可能不降低;但若学习步长过小,则训练过程可能非常缓慢。
Lindsay.Lu丶
·
2020-06-24 07:49
深度学习
Python
算法
SGD
随机梯度下降
最优化问题
深度学习
深度学习笔记
5:池化层的实现
池化层的推导池化层的输入一般来源于上一个卷积层,主要作用是提供了很强的鲁棒性(例如max-pooling是取一小块区域中的最大值,此时若此区域中的其他值略有变化,或者图像稍有平移,pooling后的结果仍不变),并且减少了参数的数量,防止过拟合现象的发生。池化层一般没有参数,所以反向传播的时候,只需对输入参数求导,不需要进行权值更新。池化层的前向计算前向计算过程中,我们对卷积层输出map的每个不重
kanei_ri
·
2020-06-24 02:45
深度学习
手撕神经网络:从零开始实现一个简单的神经网络(python)
之前有写过基于TF的全连接神经网络的实现,可以参考
深度学习笔记
——全连接神经网络样例程序及详细注释。但是这里将不借助任何深度学习平台来实现一个全连接神经网
kuweicai
·
2020-06-24 01:43
深度学习
深度学习笔记
——分类模型(三)VGG16
#-*-coding:utf-8-*-importdatetimefromkeras.modelsimportModelfromkeras.layersimport*fromkeras.preprocessing.imageimportImageDataGeneratordefVGG16(input_shape=(224,224,3),classes=1000):img_input=Input(s
wind_700
·
2020-06-24 01:35
深度神经网络
【
深度学习笔记
1】——行人重识别之必备知识与深度学习入门小经验
【
深度学习笔记
1】——行人重识别之必备知识与深度学习入门小经验一.行人重识别基础知识1.gallery和probe:2.singleshot和multishot:3.rank-n:4.precision
何小天555
·
2020-06-23 14:28
【
深度学习笔记
2】——行人重识别之局部特征与深度学习小经验
【
深度学习笔记
2】——行人重识别之局部特征与深度学习小经验一.表征学习和基于特征学习的区别1.表征学习:2.基于局部特征学习:二.论文解读(LearningDiscriminativeFeatureswithMultipleGranularitiesforPersonRe-Identification
何小天555
·
2020-06-23 14:28
吴恩达
深度学习笔记
02——改善深层神经网络1深度学习的实用层面
一、数据划分:训练/验证/测试集应用深度学习是一个典型的迭代过程。对于一个需要解决的问题的样本数据,在建立模型的过程中,数据会被划分为以下几个部分:训练集(trainset):用训练集对算法或模型进行训练过程;验证集(developmentset):利用验证集(又称为简单交叉验证集,hold-outcrossvalidationset)进行交叉验证,选择出最好的模型;测试集(testset):最后
阿尔基亚
·
2020-06-23 08:34
吴恩达深度学习
深度学习笔记
+图像处理+RCNN发展流程
深度学习笔记
深度学习(六十九)darknet实现实验CompressingDeepNeuralNetworkswithPruning,TrainedQuantizationandHuffma深度学习(六十八
SoftGit
·
2020-06-23 07:49
深度学习
机器学习笔记的github镜像下载(github个人star数量排名175)
其中机器学习笔记10000+star,
深度学习笔记
7200+star。
风度78
·
2020-06-23 07:34
吴恩达
深度学习笔记
(38)-优化算法(Optimization algorithms)
Mini-batch梯度下降(Mini-batchgradientdescent)本周将学习优化算法,这能让你的神经网络运行得更快。机器学习的应用是一个高度依赖经验的过程,伴随着大量迭代的过程,你需要训练诸多模型,才能找到合适的那一个,所以,优化算法能够帮助你快速训练模型。其中一个难点在于,深度学习没有在大数据领域发挥最大的效果,我们可以利用一个巨大的数据集来训练神经网络,而在巨大的数据集基础上进
极客Array
·
2020-06-23 05:48
吴恩达
深度学习笔记
(65)-误差分析Carrying out error analysis
进行误差分析(Carryingouterroranalysis)你希望让学习算法能够胜任人类能做的任务,但你的学习算法还没有达到人类的表现,那么人工检查一下你的算法犯的错误也许可以让你了解接下来应该做什么。这个过程称为错误分析,我们从一个例子开始讲吧。假设你正在调试猫分类器,然后你取得了90%准确率,相当于10%错误,在你的开发集上做到这样,这离你希望的目标还有很远。也许你的队员看了一下算法分类出
极客Array
·
2020-06-23 04:34
人工智能-
深度学习笔记
3 神经网络的前向传播和反向传播计算
在上两篇的学习笔记中,学习了数据集的表示和处理、激活函数的选取、代价函数的设计技巧和梯度下降的过程,那么神经网络在下降的计算过程是怎样的呢?下面将以目前流行的计算图的方式,展示一个神经网络的计算,是如何按照前向或反向传播过程组织起来的。1、计算图(ComputationGraph)的计算尝试计算函数J,J是由三个变量a,b,c组成的函数,这个函数是3(a+bc)。计算这个函数走三个步骤,首先计算b
clyfk
·
2020-06-22 22:25
MachineLearning
DeepLearning
2.3)
深度学习笔记
:超参数调试、Batch正则化和程序框架
目录1)TuningProcess2)Usinganappropriatescaletopickhyperparameters3)(Hyperparameterstuninginpractice:Pandasvs.Caviar)4)Normalizingactivationsinanetwork(重点)5)FittingBatchNormintoaneuralnetwork6)WhydoesBat
10点43
·
2020-06-22 21:30
深度学习
3.2)
深度学习笔记
:机器学习策略(2)
目录1)Carryingouterroranalysis2)CleaningupIncorrectlylabeleddata3)Buildyourfirstsystemquicklytheniterate4)Trainingandtestingondifferentdistributios5)BiasandVariancewithmismatcheddatadistributions6)Addre
10点43
·
2020-06-22 20:53
深度学习
吴恩达
深度学习笔记
course2 week3作业
TensorFlowTutorialWelcometothisweek'sprogrammingassignment.Untilnow,you'vealwaysusednumpytobuildneuralnetworks.Nowwewillstepyouthroughadeeplearningframeworkthatwillallowyoutobuildneuralnetworksmoreeas
banghu8816
·
2020-06-22 17:30
吴恩达
深度学习笔记
(十) —— 神经风格迁移
主要内容:一.神经风格迁移简介二.计算contentcost三.计算stylecost一.神经风格迁移简介1.神经风格迁移(NeuralStyleTransfer),简称为NST,就是以一张图为内容基础,以另一张图为风格基础,生成一张新的图:2.NST使用一张已经训练好的神经网络VGGnetwork作为算法的基础。可知神经网络的浅层学习一些比较低级的特征诸如边界和纹理的等,深层学些一些复杂抽象的特
alince20008
·
2020-06-22 13:05
吴恩达
深度学习笔记
(二)—— 深层神经网络的训练过程
主要内容:一.初始化参数二.前向传播三.计算代价函数四.反向传播五.更新参数(梯度下降)一.初始化参数1.由于将参数W初始化为0会导致神经网络失效,因而需要对W进行随机初始化。一般的做法是用np.random.np()生成一个高斯分布的数,然后再乘上一个很小的数比如0.01,以限制它的范围。所以可知W的初始值是一个很小的数(绝对值小),那为什么不能取绝对值较大的数呢?根据sigmoid或者tanh
alince20008
·
2020-06-22 13:33
吴恩达
深度学习笔记
(一) —— 神经网络简介
相关博客:吴恩达机器学习笔记(四)——BP神经网络(里面出现的内容,下面将不再重复)主要内容:一.单个样本向量化二.多个样本向量化三.激活函数及其导数四.随机初始化五.深层神经网络的前向与反向传播六.参数和超参数一.单个样本向量化如下神经网络,对于第一层的神经元,每个神经元的输出,即a的计算如下:但是这种每个神经元的输出都单独计算的方式显得很繁琐,至少在写代码的时候就很容易出错。为了简化表示和提高
alince20008
·
2020-06-22 13:33
机器学习资源分享
吴恩达老师的机器学习和深度学习课程笔记打印版黄海广博士的github:fengdu78(HuangHaiguang)·GitHub机器学习笔记:GitHub-fengdu78/Coursera-ML-AndrewNg-Notes:吴恩达老...
深度学习笔记
Wilder_ting
·
2020-06-22 08:53
吴恩达
深度学习笔记
12-Course4-Week3【目标检测】
目标检测(Objectdetection)一、目标定位(ObjectLocalization)图像识别的三个层次:图像分类:判断图像中是否包含某一类物体,并且假定每张图像只有一个目标。目标定位:既要图像分类,还要输出这个目标位置。目标检测:检测出图像包含的所有感兴趣的目标,并定位。目标定位:需要修改输出层的结构,和数据集的标签。输出层不仅要输出各类别的概率,还要输出目标的位置坐标。损失函数和标签:
Wang_Jiankun
·
2020-06-22 08:23
吴恩达深度学习
吴恩达深度学习笔记
吴恩达
深度学习笔记
1-Course1-Week1【深度学习概论】
2018.5.7吴恩达深度学习视频教程网址网易云课堂:https://mooc.study.163.com/smartSpec/detail/1001319001.htmCoursera:https://www.coursera.org/learn/neural-networks-deep-learningPS:网易云上不提供测验和作业,Cousera上有。深度学习概论:本篇主要关于深度学习的一些
Wang_Jiankun
·
2020-06-22 08:52
吴恩达深度学习
吴恩达深度学习笔记
深度学习笔记
(三)循环神经网络RNN
前情回顾:
深度学习笔记
(一)感知器、梯度下降、反向传播
深度学习笔记
(二)卷积神经网络RNN和LSTM之前我们知道图片有空间性的特征,于是就有了对应的解决方案:CNN。
雪球行动唐晓阳
·
2020-06-22 06:23
吴恩达
深度学习笔记
——深度卷积网络:实例探究
第二周深度卷积网络:实例探究(Deepconvolutionalmodels:casestudies)2.2经典网络(Classicnetworks)这节课,我们来学习几个经典的神经网络结构,分别是LeNet-5、AlexNet和VGGNet,开始吧。LeNet-5的网络结构2.3残差网络(ResidualNetworks(ResNets))非常非常深的神经网络是很难训练的,因为存在梯度消失和梯度
SCS199411
·
2020-06-22 04:45
深度学习
吴恩达
深度学习笔记
——超参数调试、Batch正则化和程序框架
第三周超参数调试、Batch正则化和程序框架(Hyperparametertuning)3.1调试处理(Tuningprocess)结果证实一些超参数比其它的更为重要,α\alphaα无疑是最重要的,接下来是我用橙色圈住的那些,然后是我用紫色圈住的那些,但这不是严格且快速的标准。在早一代的机器学习算法中,如果你有两个超参数,这里我会称之为超参1,超参2,常见的做法是在网格中取样点,像这样,然后系统
SCS199411
·
2020-06-22 04:14
深度学习
上一页
24
25
26
27
28
29
30
31
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他