E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达深度学习
吴恩达深度学习
相关资源
课程地址:网易视频地址:https://163.lu/nPtn42coursera地址:https://www.coursera.org/specializations/deep-learningdeeplearning.ai官网地址:https://www.deeplearning课后作业:https://github.com/stormstone/deeplearning.ai课后笔记:htt
Thank_T_F
·
2020-09-12 02:45
深度学习-吴恩达课程
吴恩达深度学习
相关资源下载地址(蓝奏云)
蓝奏云dropoutinstr.zip【吴恩达课后编程作业】第二周-PA1-具有神经网络思维的Logistic回归.zipWeek3-PA2-Planardataclassificationwithonehiddenlayer.zip【吴恩达课后编程作业】Course1-神经网络和深度学习-第四周作业(1&2).zip【吴恩达课后编程作业】Course2-改善深层神经网络-第一周作业(1&2&3)
何宽
·
2020-09-12 02:52
吴恩达的课后作业
吴恩达深度学习
:2.1Logistic Regression逻辑回归及其损失函数
1.LogisticRegression是一个二元分类问题(1)已知输入的特征向量x可能是一张图,你希望把它识别出来,这是不是猫图,你需要一个算法,可以给出预测值,更正式的y是一个概率,当输入特征x满足条件的时候y就是1。换句话说,如果x是图片,那就需要拿到一张猫图的概率。(2)Sigmoid函数。这里就不多说了,关于sigmoid自己百度,很简单(3)为了训练logistic回归模型的参数w和b
aikunjiao3421
·
2020-09-11 21:04
【deep learning】入门总结1-----深度学习概述
4月17日,我胡汉三又回来了~关于深度学习的入门学习,我主要是通过看红色的石头的
吴恩达深度学习
专项课程博客专栏学习的深度学习入门,外加阅读了XXX关于《
吴恩达深度学习
专项课程》,概述部分提出了这么几个问题
donggui8650
·
2020-09-10 13:37
吴恩达深度学习
笔记 course2 week3 超参数调试,Batch Norm,和程序框架
1.TuningProcess对超参数的一个调试处理一般而言,在调试超参数的过程中,我们通常将学习率learning_rate看作是最重要的一个超参数,其次是动量梯度下降因子β(一般为0.9),隐藏层单元个数,mini-batchsize,再然后是layers,learningratedecacy.当然,这并不是绝对的.在adam算法中,β1,β2,ε通常取值为0.9,0.999,10-8调试超参
banghu8816
·
2020-09-10 12:05
吴恩达深度学习
笔记04——卷积神经网络1
一、计算机视觉计算机视觉(ComputerVision)的高速发展标志着新型应用产生的可能,例如自动驾驶、人脸识别、创造新的艺术风格。人们对于计算机视觉的研究也催生了很多机算机视觉与其他领域的交叉成果。一般的计算机视觉问题包括以下几类:图片分类(ImageClassification);目标检测(Objectdetection);神经风格转换(NeuralStyleTransfer)。应用计算机视
阿尔基亚
·
2020-08-26 23:59
吴恩达深度学习
深度学习
开始学习深度学习,学习课程为
吴恩达深度学习
工程师微专业系列。用这个博客来记录课程笔记。神经网络和深度学习第一周深度学习概论:学习驱动神经网络兴起的主要技术趋势,了解现今深度学习在哪里应用、如何应用。
qq_34851605
·
2020-08-25 04:27
深度学习
吴恩达 Andrew Ng 的公开课
StanfordMachineLearningGroup名人面对面吴恩达——人工智能的理智与情感吴恩达在Quora上获得上万赞同的最高票回答,却和人工智能无关
吴恩达深度学习
,无监督特征学习-UCLA吴恩达
jiandanjinxin
·
2020-08-24 15:14
吴恩达深度学习
课后练习题和编程题--黄海广翻译(一站式服务,题目和答案分开,便于练习)
1.课后作业概览作业是1.3G压缩包,包括课后测验的选择题和编程题,链接见后面。上图:1.1编程题编程题要用jupyter打开(没有jupyter的同学可以自行百度安装),所有题目都是英文题,如果不想看英文题,可以使用本文第二章的小工具。题目是纯英文的形式,如下图所示,红线划出的带有original的是原版题目,可以自己做;绿线划出的是答案,做完方便对照。打开文件我们可以看到下图内容,红色区域是你
dxwell6
·
2020-08-24 13:19
深度学习资源
花书+
吴恩达深度学习
(五)正则化方法(防止过拟合)
目录0.前言1.参数范数惩罚2.Dropout随机失活3.提前终止4.数据集增强5.参数共享如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔~我会非常开心的~花书+
吴恩达深度学习
(五)正则化方法(
zhq9695
·
2020-08-24 05:37
深度学习
吴恩达深度学习
之tensorflow2.0 课程
课链接
吴恩达深度学习
之tensorflow2.0入门到实战2019年最新课程最佳配合吴恩达实战的教程代码资料自己取链接:https://pan.baidu.com/s/1QrTV3KvKv0KUhIRrGBgJOA
算法黑哥
·
2020-08-24 04:53
深度学习
吴恩达深度学习
课程疑难点笔记系列-改善深层神经网络-第3周
本笔记系列参照
吴恩达深度学习
课程的视频和课件,并在学习和做练习过程中从CSDN博主何宽分享的文章中得到了帮助,再此表示感谢。
黄水生
·
2020-08-24 00:24
吴恩达深度学习
吴恩达深度学习
笔记(79)-池化层讲解(Pooling layers)
池化层(Poolinglayers)除了卷积层,卷积网络也经常使用池化层来缩减模型的大小,提高计算速度,同时提高所提取特征的鲁棒性,我们来看一下。先举一个池化层的例子,然后我们再讨论池化层的必要性。假如输入是一个4×4矩阵,用到的池化类型是最大池化(maxpooling)。执行最大池化的树池是一个2×2矩阵。执行过程非常简单,把4×4的输入拆分成不同的区域,我把这个区域用不同颜色来标记。对于2×2
极客Array
·
2020-08-23 07:41
吴恩达深度学习
课程测试题中英对照版发布
吴恩达的深度学习课程(deepLearning.ai)是公认的入门深度学习的宝典,本站将课程的课后测试题进行了翻译,建议初学者学习。所有题目都翻译完毕,适合英文不好的同学学习。主要翻译者:黄海广内容截图测试题目录Lesson1NeuralNetworksandDeepLearning(第一门课神经网络和深度学习)Week1Quiz-Introductiontodeeplearning(第一周测验-
风度78
·
2020-08-23 01:23
rank 1 array--shape:(n,)
「学习内容总结自
吴恩达深度学习
课程第一课第二周关于Python/numpy的内容」1.什么是rank1array当创建神经网络的输入时,有时会使用下面的代码来创建行向量或者列向量,但其实这样创建的既不是行向量也不是列向量
caoqi95
·
2020-08-21 23:52
吴恩达深度学习
笔记(8)-重点-梯度下降法(Gradient Descent)
梯度下降法(GradientDescent)(重点)梯度下降法可以做什么?在你测试集上,通过最小化代价函数(成本函数)J(w,b)来训练的参数w和b,如图,在第二行给出和之前一样的逻辑回归算法的代价函数(成本函数)(上一篇文章已讲过)梯度下降法的形象化说明在这个图中,横轴表示你的空间参数w和b,在实践中,w可以是更高的维度,但是为了更好地绘图,我们定义w和b,都是单一实数,代价函数(成本函数)J(
极客Array
·
2020-08-21 18:35
深度学习
吴恩达深度学习笔记
吴恩达深度学习
课程编程作业(一)
最近为了找实习开始做一些练手的编程,刚好在复习深度学习基础的时候,遇到了吴恩达和李宏毅两位大神,讲课讲得好真的很重要,废话不多说,下面开始我们的第一份编程练习。首先我们要实现的是sigmoid激活函数,也就是逻辑回归的function,个人建议学习深度学习从逻辑回归开始,虽然到最后基本没有人在自己的神经网络里面使用这个激活函数了,但是它还是深度学习开始的地方。sigmoidps:它的梯度峰值是0.
NLP小学生
·
2020-08-21 09:49
吴恩达深度学习
反向传播(Back Propagation)公式推导技巧
转自:https://www.cnblogs.com/southtonorth/p/9512559.html一直感觉反向传播(BackPropagation,BP)是这部分的重点,但是当时看的比较匆忙,有些公式的推导理解的不深刻,现在重新回顾一下,一是帮助自己梳理思路加深理解,二是记录下来以免遗忘。1.符号规定一般计算神经网络层数时不包括输入层,因此图1中的网络层数L为4;n[l]表示第l层的神经
YADONCHEN
·
2020-08-21 05:41
吴恩达深度学习
吴恩达深度学习
1-4(Build your neural network step by step) L_model_backword 函数
有些博客解析有误,原有的注释已经很清晰,修改如下:#GRADEDFUNCTION:L_model_backwarddefL_model_backward(AL,Y,caches):"""Implementthebackwardpropagationforthe[LINEAR->RELU]*(L-1)->LINEAR->SIGMOIDgroupArguments:AL--probabilityvec
captainNYS
·
2020-08-21 03:43
DL
吴恩达深度学习
编程作业 one-hot编码
#单词级的one-hot编码importnumpyasnp#利用split方法对样本进行分词,在实际应用中还需要从样本中去掉标点和特殊符号samples=['Thecatsatonthemat.','Thedogatemyhomework.']#构建数据中所有标记的索引token_index={}forsampleinsamples:forwordinsample.split():ifwordno
每天吃一个苹果
·
2020-08-19 05:46
吴恩达深度学习编程课后作业
pytorch实现二分类(单隐藏层的神经网络)
同样是
吴恩达深度学习
课程的作业,我把它改成pytorch版本了。有了上次的经验,这次就没花多少时间了。
明日何其多_
·
2020-08-19 03:36
pytorch
吴恩达深度学习
第二章第一周——Dropout正则化的个人理解
学习了吴恩达机器学习第二章改善深层神经网络:超参数调试、正则化以及优化的第一周之后发现对其中的部分知识仍然不是很理解,因此打算对其中的一些难点重新去整理。又因为所有的内容太多,所以这边我打算只做难点的整理。1)Dropout("随机失活")操作过程1.每层每个节点以某一概率(这里以50%为例)被选中为需要删除的节点(如下图中标上X的节点)2.被选中为删除的节点,不仅要删除节点,与之相连的线段也要删
倚剑笑紅尘
·
2020-08-19 03:45
机器学习
机器学习
吴恩达深度学习
笔记(33)-带你进一步了解Dropout
理解dropout(UnderstandingDropout)Dropout可以随机删除网络中的神经单元,他为什么可以通过正则化发挥如此大的作用呢?直观上理解:不要依赖于任何一个特征,因为该单元的输入可能随时被清除,因此该单元通过这种方式传播下去,并为单元的四个输入增加一点权重,通过传播所有权重,dropout将产生收缩权重的平方范数的效果,和之前讲的L2正则化类似;实施dropout的结果实它会
极客Array
·
2020-08-19 01:07
深度学习
吴恩达深度学习笔记
吴恩达深度学习
笔记(32)-Dropout正则化Dropout Regularization
dropout正则化(DropoutRegularization)除了L2正则化,还有一个非常实用的正则化方法——“Dropout(随机失活)”,我们来看看它的工作原理。假设你在训练上图这样的神经网络,它存在过拟合,这就是dropout所要处理的,我们复制这个神经网络,dropout会遍历网络的每一层,并设置消除神经网络中节点的概率。假设网络中的每一层,每个节点都以抛硬币的方式设置概率,每个节点得
极客Array
·
2020-08-19 00:52
深度学习
吴恩达深度学习笔记
吴恩达深度学习
5.1练习_Sequence Models_Improvise a Jazz Solo with LSTM
转载自吴恩达老师深度学习课程作业notebook此篇练习没有细细研究,模型和生成恐龙名字模型差不多,使用Keras实现模型。自动生成音乐感觉挺有意思的,闲时再回头研究研究ImproviseaJazzSolowithanLSTMNetworkWelcometoyourfinalprogrammingassignmentofthisweek!Inthisnotebook,youwillimplemen
Hayden112
·
2020-08-18 17:09
吴恩达深度学习_练习
从零开始实现Logistic Regression,最简单的单元深度神经网络。
来自
吴恩达深度学习
视频,第二周编程作业,有详细注释。如果直接看代码对你来说太难,参考https://blog.csdn.net/u013733326/article/details/79639509。
从流域到海域
·
2020-08-18 10:58
深度学习与机器学习
机器学习资源
毕竟努力过结果都不会太差马上就要上“战场”了,大家加油希望每个人都能收获理想的成绩一、视频资源吴恩达机器学习视频链接:https://study.163.com/course/introduction/1004570029.htm
吴恩达深度学习
教程链接
「已注销」
·
2020-08-17 20:11
机器学习
LeNet论文阅读笔记
目录前言LeNet论文第二部分阅读笔记A.ConvolutionalNetworksB.LeNet-5C.LossFunction前言 最近学完了
吴恩达深度学习
的视频课,根据师兄的建议,打算读一些网络结构方面的论文
comic97
·
2020-08-17 12:10
网络结构论文阅读
网络结构论文阅读
吴恩达深度学习
Deeplearning.ai学习笔记 Course5 Week1 循环序列模型(Recurrent Neural Networks)
RecurrentNeuralNetworks1.1SequenceModels1.2数学符号(Notation)样本及数据的表示单个单词的表示1.3循环神经网络模型(RecurrentNeuralNetworkModel)简单神经网络的问题RNN1.4通过时间的反向传播(Backpropagationthroughtime)1.5不同类型的循环神经网络(DifferenttypesofRNNs)
Raymond_MY
·
2020-08-17 11:42
Deepleraning
吴恩达 深度学习系列--神经网络基础(Logistic Regression)-01
吴恩达深度学习
系列–神经网络基础LOGISTICREGRESSIONlogistic回归的因变量可以是二分非线性差分方程类的,也可以是多分类的,但是二分类的更为常用,也更加容易解释。
骚火棍
·
2020-08-17 11:58
吴恩达
深度学习
吴恩达
深度学习
吴恩达深度学习
课程第一课(第三周) — 浅层神经网络
whatisNeuralNetwork?1、NeuralNetworkRepresentation只有一个隐藏层的神经网络:双层神经网络只有一个隐藏层。隐藏层是第一层(双层神经网络)2、ComputingaNeuralNetwork'sOutput神经网络到底在计算什么第一个节点:第一步计算z,第二步计算激活函数sigmoid(z)4.Vectorizingacrossmultipleexampl
Boomoon
·
2020-08-16 23:22
深度学习
吴恩达深度学习
课后作业(第一课第二周)pycharm实现
文章目录文章简介学习资源环境配置主要内容运行效果图代码示例文章简介本文是
吴恩达深度学习
第二周作业的代码实现,代码由
吴恩达深度学习
课后作业markdown文件改编而来,在朋友charm上编写。
工科pai
·
2020-08-16 22:38
深度学习
深度学习
花书+
吴恩达深度学习
(十九)构建模型策略(训练模型顺序、偏差方差、数据集划分、数据不匹配)
目录0.前言1.调试模型顺序2.偏差方差的解决方法3.数据集的选取划分4.数据不匹配问题5.评估指标的选取6.贝叶斯最佳误差如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔~我会非常开心的~花书+
吴恩达深度学习
zhq9695
·
2020-08-16 17:50
深度学习
花书+
吴恩达深度学习
(一)前馈神经网络(多层感知机 MLP)
输出单元4.1.线性单元4.2.sigmoid单元4.3.softmax单元5.神经网络宽度和深度的选择6.前向传播和反向传播如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔~我会非常开心的~花书+
吴恩达深度学习
zhq9695
·
2020-08-16 17:50
深度学习
花书+
吴恩达深度学习
(十八)迁移学习和多任务学习
目录0.前言1.迁移学习2.多任务学习如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔~我会非常开心的~花书+
吴恩达深度学习
(十八)迁移学习和多任务学习花书+
吴恩达深度学习
(十九)构建模型策略(训练模型顺序
zhq9695
·
2020-08-16 17:47
深度学习
数据不匹配与卷积“平移不变”
1.数据不匹配问题
吴恩达深度学习
课程中有几个小节谈到了训练数据集和测试数据集分布不匹配的问题,这种不匹配可能经常发生,因为对于特定问题领域我们可能无法获得充足的数据,而在深度学习中我们又总是尽量去收集更多的数据来训练网络
一蓑烟雨任平生
·
2020-08-16 15:05
人工智能
深度学习与人工智能
吴恩达深度学习
—— 4.5 搭建深层神经网络块
如下图,这是一个层数较少的神经网络,我们选择其中一层,从第二层隐藏层的计算着手,在第l层有参数Wl[]W^{l[]}Wl[]和b[l]b^{[l]}b[l],正向传播里有输入的激活函数,输入的前一层是a[l−1]a^{[l-1]}a[l−1],输出是a[l]a^{[l]}a[l]。z[l]=W[l]a[l−1]+bz^{[l]}=W^{[l]}a^{[l-1]}+bz[l]=W[l]a[l−1]+
努力努力努力努力
·
2020-08-16 14:14
吴恩达深度学习
花书+
吴恩达深度学习
(二十)构建模型策略(超参数调试、监督预训练、无监督预训练)
目录0.前言1.学习率衰减2.调参策略3.贪心监督预训练4.贪心逐层无监督预训练如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔~我会非常开心的~花书+
吴恩达深度学习
(十八)迁移学习和多任务学习花书
zhq9695
·
2020-08-16 11:37
深度学习
深度学习
超参数
调参
学习率衰减
监督预训练
吴恩达深度学习
(53)-Batch Norm 为什么奏效?
https://www.toutiao.com/a6640433472697532942/2019-01-0407:35:33BatchNorm为什么奏效?(WhydoesBatchNormwork?)为什么Batch归一化会起作用呢?一个原因是,你已经看到如何归一化输入特征值x,使其均值为0,方差1.它又是怎样加速学习的,有一些从0到1而不是从1到1000的特征值,通过归一化所有的输入特征值x,
喜欢打酱油的老鸟
·
2020-08-14 21:17
人工智能
B站
吴恩达深度学习
视频笔记(18)——计算机视觉
前言这是真正开讲卷积神经网络之前最后一篇作为铺垫的笔记了,计算机视觉与卷积神经网络密切相关。理解计算机视觉,才能理解为啥会出现卷积神经网路。计算机视觉计算机视觉是一个飞速发展的一个领域,这多亏了深度学习。深度学习与计算机视觉可以帮助汽车,查明周围的行人和汽车,并帮助汽车避开它们。还使得人脸识别技术变得更加效率和精准,你们即将能够体验到或早已体验过仅仅通过刷脸就能解锁手机或者门锁。当你解锁了手机,我
nine_mink
·
2020-08-14 18:49
B站吴恩达深度学习视频笔记
深度学习之防止过拟合的方法及技巧
深度学习之防止过拟合的方法及技巧
吴恩达深度学习
中关于过拟合的讲解1.L2正则化2.随机失活(dropout)其他地方看到的技巧1.一篇公众号关于Kaggle比赛中防止过拟合技巧此文章旨在总结一些大佬在实战中防止过拟合的方法
dxwell6
·
2020-08-14 16:59
深度学习
深度学习资源
吴恩达深度学习
笔记(29)-神经网络训练的方差和偏差分析
这一节我们学习在神经网络学习训练时出现的结果进行分析,偏差和方差的表现和优化,仔细看好咯~偏差,方差(Bias/Variance)几乎所有机器学习从业人员都期望深刻理解偏差和方差,这两个概念易学难精,即使你自己认为已经理解了偏差和方差的基本概念,却总有一些意想不到的新东西出现。关于深度学习的误差问题,另一个趋势是对偏差和方差的权衡研究甚浅,你可能听说过这两个概念,但深度学习的误差很少权衡二者,我们
极客Array
·
2020-08-14 16:12
深度学习
吴恩达深度学习笔记
B站
吴恩达深度学习
视频笔记(33)——正则化的解释
正则化(Regularization)深度学习可能存在过拟合问题——高方差,有两个解决方法,一个是正则化,另一个是准备更多的数据,这是非常可靠的方法,但你可能无法时时刻刻准备足够多的训练数据或者获取更多数据的成本很高,但正则化通常有助于避免过拟合或减少你的网络误差。如果你怀疑神经网络过度拟合了数据,即存在高方差问题,那么最先想到的方法可能是正则化,另一个解决高方差的方法就是准备更多数据,这也是非常
nine_mink
·
2020-08-14 15:59
B站吴恩达深度学习视频笔记
神经网络
编程语言
机器学习
深度学习
python
B站
吴恩达深度学习
视频笔记(34)——为什么正则化可以防止过拟合
为什么正则化有利于预防过拟合呢?(Whyregularizationreducesoverfitting?)为什么正则化有利于预防过拟合呢?为什么它可以减少方差问题?我们通过两个例子来直观体会一下。左图是高偏差,右图是高方差,中间是JustRight,这几张图我们在前面课程中看到过。现在我们来看下这个庞大的深度拟合神经网络。我知道这张图不够大,深度也不够,但你可以想象这是一个过拟合的神经网络。这是
nine_mink
·
2020-08-14 15:59
B站吴恩达深度学习视频笔记
B站
吴恩达深度学习
视频笔记(32)——神经网络训练的方差和偏差分析
这一节我们学习在神经网络学习训练时出现的结果进行分析,偏差和方差的表现和优化,仔细看好咯~偏差,方差(Bias/Variance)几乎所有机器学习从业人员都期望深刻理解偏差和方差,这两个概念易学难精,即使你自己认为已经理解了偏差和方差的基本概念,却总有一些意想不到的新东西出现。关于深度学习的误差问题,另一个趋势是对偏差和方差的权衡研究甚浅,你可能听说过这两个概念,但深度学习的误差很少权衡二者,我们
nine_mink
·
2020-08-14 15:27
B站吴恩达深度学习视频笔记
算法
可视化
机器学习
深度学习
人工智能
吴恩达深度学习
4.2练习_Convolutional Neural Networks_Residual Networks
转载自吴恩达老师深度学习课程作业notebookResidualNetworksWelcometothesecondassignmentofthisweek!Youwilllearnhowtobuildverydeepconvolutionalnetworks,usingResidualNetworks(ResNets).Intheory,verydeepnetworkscanrepresentv
Hayden112
·
2020-08-14 14:14
吴恩达深度学习_练习
吴恩达深度学习
笔记(五) —— 优化算法:Mini-Batch GD、Momentum、RMSprop、Adam、学习率衰减...
主要内容:一.Mini-BatchGradientdescent二.Momentum四.RMSprop五.Adam六.优化算法性能比较七.学习率衰减一.Mini-BatchGradientdescent1.一般地,有三种梯度下降算法:1)(Batch)GradientDescent,即我们平常所用的。它在每次求梯度的时候用上所有数据集,此种方式适合用在数据集规模不大的情况下。X=data_inpu
alince20008
·
2020-08-13 13:04
吴恩达深度学习
笔记(十一)—— dropout正则化
主要内容:一、dropout正则化的思想二、dropout算法流程三、dropout的优缺点一、dropout正则化的思想在神经网络中,dropout是一种“玄学”的正则化方法,以减少过拟合的现象。它的主要思想就是:在训练神经网络的每一轮迭代中,随机地关闭一些神经元,以此降低神经网络的复杂程度:二、dropout算法流程1)对于第k层的结点,选择一个范围在(0,1]的数keep_prob,表明每一
alince20008
·
2020-08-13 13:04
吴恩达深度学习
笔记(九) —— FaceNet
主要内容:一.FaceNet人脸识别简介二.使用神经网络对人脸进行编码三.代价函数tripleloss四.人脸库五.人脸认证与人脸识别一.FaceNet简介1.FaceNet是一个深层神经网络,它将人脸编码成一个含有128个数的向量。通过比较两张人脸编码后的向量,可以判定两张人脸是否属于同一个人。2.FaceNet的代价函数叫做“tripletlossfunction”,就是在训练的时候,一条训练
alince20008
·
2020-08-13 13:04
深度之眼_
吴恩达深度学习
_打卡学习_调试
理解训练/验证/测试集、偏差/方差、正则化以及梯度消失/梯度爆炸/梯度检验等基本的概念。需重点掌握为什么正则化可以减少过拟合,以及对梯度消失和梯度爆炸产生的原因和解决的方法。训练/验证/测试集,数据量在百万级以下,可以60/20/20,百万级,98/1/1就可以了。偏差/方差,偏差vias,方差variance,看实际的情况,可能既有偏差,又有方差。正则化:L2正则化,有lambda,增大lamb
weixin_38426803
·
2020-08-12 13:13
上一页
6
7
8
9
10
11
12
13
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他