E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达深度学习笔记
吴恩达深度学习笔记
2.2 logistic回归
regression:回归supervised:有监督的logistic回归是一种学习算法被用于有监督学习问题,当y全都是0或1时例子:判断是否有猫给定一个由特征向量x代表的图像,那个算法将会估计猫是否在那个图像里的可能性logistic回归的参数如下:转载于:https://www.cnblogs.com/Dar-/p/9310066.html
banghu8816
·
2022-12-12 19:40
人工智能
吴恩达深度学习笔记
05——序列模型1循环序列模型
自然语言和音频都是前后相互关联的数据,对于这些序列数据需要使用循环神经网络(RecurrentNeuralNetwork,RNN)来进行处理。使用RNN实现的应用包括下图中所示:一、数学符号对于一个序列数据x,用符号x⟨t⟩x^{⟨t⟩}x⟨t⟩来表示这个数据中的第t个元素,用y⟨t⟩y^{⟨t⟩}y⟨t⟩来表示第t个标签,用TxT_xTx和TyT_yTy来表示输入和输出的长度。对于一段音频,元素
阿尔基亚
·
2022-12-02 07:03
吴恩达深度学习
【免积分下载】吴恩达 机器学习笔记PDF版v5.5.pdf
下载地址:https://wwe.lanzous.com/i2tcOdy2qmh如果您还需要
吴恩达深度学习笔记
,请点击:吴恩达Deeplearning深度学习笔记v5.7最新PDF版免积分
江南蜡笔小新
·
2022-12-01 13:11
tricks
机器学习
人工智能
深度学习
神经网络
吴恩达
吴恩达深度学习笔记
——序列模型与循环神经网络(Sequence Models)
深度学习笔记导航前言传送门序列模型(SequenceModels)RecurrentNeuralNetworks(循环神经网络)序列模型符号:以NLP举例循环神经网络基础RNN变体语言模型(重点)基础概念训练过程详解新序列采样(samplenovelsequences):RNN改进梯度消失GRU(gatedrecurrentunit)LSTM(longshorttermmemory)NLPandW
亦梦亦醒乐逍遥
·
2022-11-30 23:02
个人随笔/学习笔记
深度学习
人工智能
机器学习
训练softmax分类器实例_
吴恩达深度学习笔记
(56)-训练一个 Softmax 分类器
训练一个Softmax分类器(TrainingaSoftmaxclassifier)上一个笔记中我们学习了Softmax层和Softmax激活函数,在这个笔记中,你将更深入地了解Softmax分类,并学习如何训练一个使用了Softmax层的模型。回忆一下我们之前举的的例子,输出层计算出的z^([l])如下,我们有四个分类C=4,z^([l])可以是4×1维向量,我们计算了临时变量t对元素进行幂运算
weixin_39609718
·
2022-11-30 12:29
训练softmax分类器实例
吴恩达深度学习笔记
-人脸识别与神经风格迁移(第12课)
人脸识别与神经风格迁移一、什么是人脸识别?二、One-Shotlearning三、Siamese网络四、TripletLoss五、面部验证与二分类六、什么是神经风格转换?七、什么是深度卷积网络?八、代价函数九、内容代价函数十、风格代价函数十一、一维到三维的推广一、什么是人脸识别?人脸验证问题:输入一张人脸图片和姓名(或者ID),判断图片中的人是否是姓名指向的人,一对一问题。人脸识别问题:输入一张人
快乐活在当下
·
2022-11-28 00:22
吴恩达深度学习
深度学习
机器学习
人工智能
吴恩达深度学习教程——中文笔记网上资料整理
吴恩达深度学习笔记
整理内容为网上博主博文整理,如有侵权,请私信联系。课程内容:Coursera:官方课程安排(英文字幕)。
Star·端木
·
2022-11-25 20:11
深度学习
深度学习笔记
吴恩达教程
人工智能
深度学习理论基础
【
吴恩达深度学习笔记
】1.3 浅层神经网络Shallow neural networks
第一门课神经网络和深度学习(NeuralNetworksandDeepLearning)3.1神经网络概述(NeuralNetworkOverview)感觉这块没啥好记的3.2神经网络的表示(NeuralNetworkRepresentation)神经网络包括输入层(inputlayer):包含输入特征x1,x2,...x_1,x_2,...x1,x2,...隐藏层(hiddenlayer):训练
贪钱算法还我头发
·
2022-11-24 05:08
AI
#
Deep
Learning
深度学习
吴恩达深度学习笔记
——DAY4
目录一、神经网络的梯度下降二、随机初始化三、深层神经网络四、矩阵的维数五、参数VS超参数一、神经网络的梯度下降正向传播的方程:反向传播方程:二、随机初始化如果你要初始化成0,由于所有的隐含单元都是对称的,无论你运行梯度下降多久,他们一直计算同样的函数。这没有任何帮助,因为你想要两个不同的隐含单元计算不同的函数,这个问题的解决方法就是随机初始化参数。初始化如下:这里的0.01是为了使得产生的随机数数
qq_45948088
·
2022-11-24 00:18
深度学习
神经网络
cnn
吴恩达深度学习笔记
——DAY2
目录一、梯度下降法二、向量化(Vectorization)三、Python中的广播(BroadcastinginPython)一、梯度下降法梯度下降法在测试集上,通过最小化代价函数(成本函数〉J(w,b)来训练的参数w和b,找到全局最优解,也就是代价函数(成本函数)J(w,b)这个凸函数的最小值点,这个函数含有两个参数w和b。二、向量化(Vectorization)向量化是非常基础的去除代码中fo
qq_45948088
·
2022-11-24 00:47
深度学习
人工智能
神经网络
5.1 时序模型——循环神经网络RNN
吴恩达深度学习笔记
——十三、第五课第一周:时序模型——循环神经网络RNN1时序模型简介1.1时序模型的用处1.2符号定义1.3如何表示一个句子里的词2循环神经网络RNN2.1简介RNN2.2反向传播2.3
lizhaoxinLZX
·
2022-11-23 06:46
吴恩达-深度学习
神经网络
深度学习
人工智能
吴恩达深度学习笔记
-循环神经网络(RNN) (第13课)
序列模型一、为什么选择序列模型二、数学符号三、循环神经网络四、穿越时间的反向传播五、不同类型的循环神经网络六、语言模型和序列生成七、新序列采样八、RNN神经网络的梯度消失九、GRU单元(门控循环单元)十、长短期记忆(LSTM)十一、双向RNN(BidirectionalBNN,BRNN)十二、深层循环神经网络十三、RNN为什么要使用Clipping?十四、解决梯度消失一、为什么选择序列模型序列模型
快乐活在当下
·
2022-11-23 06:12
吴恩达深度学习
深度学习
人工智能
机器学习
卷积神经网络(Convolutional Neural Networks, CNN)小总结
先列参考资料,这篇文章基本是以下资料相关部分的拼接和概括:邱锡鹏《神经网络与深度学习》卷积层-深度学习入门-卷积神经网络(一)-知乎池化层(Poolinglayers)
吴恩达深度学习笔记
(79)深度卷积神经网络综述
笃谷
·
2022-11-22 21:06
cnn
神经网络
深度学习
卷积神经网络
人工智能
(一)逻辑回归及其代价函数 ---
吴恩达深度学习笔记
逻辑回归—适用于二分类问题使用逻辑回归算法会得到的输出标签y,y在监督问题中全是0或者1,因此这是一种针对二分类问题的算法。给定的输入特征向量x和一幅图像对应,我们希望识别这是否是一张猫的图片。因此我们想要一种算法能够输出一个预测值,我们称之为y帽(yhaty^\widehat{y}y),这代表对真是标签Y的估计。形式上讲yhat是当给定特定输入特征x时,预测标签y为1的概率。换种说法就是当x是一
奕星星奕
·
2022-11-22 11:07
图像处理
逻辑回归
深度学习
吴恩达深度学习笔记
——结构化机器学习项目(Structuring Machine Learning Projects)
深度学习笔记导航前言传送门结构化机器学习项目(MachineLearningStrategy)机器学习策略概述正交化(orthogonalization)评价指标数字评估指标的单一性满足指标与优化指标数据集划分数据集区分数据集划分比例什么时候改变指标/开发集/测试集人类表现贝叶斯水平-人类水平-机器学习水平biasandvariance(偏差和方差)深入理解“人类表现”超越人类表现总结:改善模型表
亦梦亦醒乐逍遥
·
2022-11-19 23:32
个人随笔/学习笔记
深度学习
机器学习
人工智能
【Nan‘s
吴恩达深度学习笔记
】第四课第一周 卷积神经网络
【Nan‘s
吴恩达深度学习笔记
】第四课第一周卷积神经网络ConvolutionalNeuralNetworks1.1计算机视觉(Computervision)边缘检测垂直边缘过滤器选择PaddingValid
Liareee
·
2022-11-19 22:22
吴恩达
深度学习
吴恩达深度学习笔记
course4 week2 作业1
这周新使用了一个新框架,它是一个比较高级的框架,比起低级框架有更多的限制使用keras要注意的是:1.Keras框架使用的变量名和我们以前使用的numpy和TensorFlow变量不一样。它不是在前向传播的每一步上创建新变量(比如X,Z1,A1,Z2,A2,…)以便于不同层之间的计算。在Keras中,我们使用X覆盖了所有的值,没有保存每一层结果,我们只需要最新的值,唯一例外的就是X_input,我
banghu8816
·
2022-11-19 22:15
python
开发工具
人工智能
吴恩达深度学习笔记
——神经网络与深度学习(Neural Networks and Deep Learning)
文章目录前言传送门神经网络与深度学习(NeuralNetworksandDeepLearning)绪论梯度下降法与二分逻辑回归(GradientDescendandLogisticsRegression)forwardpropagationbackwardpropagation(withChainRule)vectorization损失函数和成本函数推导(LossFunction|CostFunc
亦梦亦醒乐逍遥
·
2022-11-19 19:30
个人随笔/学习笔记
深度学习
神经网络
机器学习
吴恩达深度学习笔记
——改善深层神经网络:超参数调整,正则化,最优化(Hyperparameter Tuning)
深度学习笔记导航前言传送门改善深层神经网络:超参数调整,正则化,最优化(ImprovingDeepNeuralNetworks:HyperparameterTuning,Regularization,andOptimization)深度学习实践(PracticalAspectsofDeepLearning)基础数据集分割偏差/方差(bias/variance)基本分析方法正则化(regulariz
亦梦亦醒乐逍遥
·
2022-11-19 19:00
个人随笔/学习笔记
深度学习
神经网络
机器学习
吴恩达深度学习笔记
整理(五)
目录优化算法Mini-batch梯度下降理解mini-batch梯度下降法怎么选择适合的batchsize?指数加权平均数理解指数加权平均数公式:指数加权平均的偏差修正动量梯度下降法RMSpropAdam优化算法学习率衰减为什么衰减?局部最优局部最优解鞍点优化算法Mini-batch梯度下降深度学习的优势是可以利用一个巨大的数据集来训练神经网络,而在巨大的数据集基础上进行训练速度很慢。这时,我们可
梦想的小鱼
·
2022-11-19 18:32
机器学习
人工智能
深度学习
神经网络
吴恩达深度学习笔记
(五)——优化算法
一、mini_batch梯度下降法如果使用batch梯度下降法,mini-batch的大小为m,每个迭代需要处理大量的训练样本,弊端在于巡林样本巨大的时候,单次迭代耗时过长。如果使用随机梯度下降法(mini-batch为1),只处理一个样本,通过减小学习率,噪声得到改善或者减小。缺点是失去向量化带来的加速,效率低下。且永远不会收敛,会一直在最小值附近波动,并不会达到最小值并停留在此。所以实践中,通
子非鱼icon
·
2022-11-12 17:41
深度学习自学笔记
算法
机器学习
深度学习
优化算法
吴恩达
吴恩达深度学习笔记
(39)-更进一步理解mini-batch梯度下降法
理解mini-batch梯度下降法(Understandingmini-batchgradientdescent)在上一个笔记中,你知道了如何利用mini-batch梯度下降法来开始处理训练集和开始梯度下降,即使你只处理了部分训练集,即使你是第一次处理,本笔记中,我们将进一步学习如何执行梯度下降法,更好地理解其作用和原理。使用batch梯度下降法时,每次迭代你都需要历遍整个训练集,可以预期每次迭代
极客Array
·
2022-11-12 17:01
深度学习
吴恩达深度学习笔记
minibatch
吴恩达
深度学习
吴恩达深度学习笔记
-优化算法(第5课)
优化算法一、Mini-batch梯度下降算法二、理解mini-batch梯度下降法三、指数加权平均四、理解指数加权平均五、指数加权平均值的偏正修差六、动量梯度下降法(gradientwithmomentum)七、RMSprop(rootmeansquareprop)八、Adam优化算法九、学习率衰减十、局部最优的问题一、Mini-batch梯度下降算法当X是一个数量很大的数据集,例如m=50000
快乐活在当下
·
2022-11-12 17:30
吴恩达深度学习
深度学习
算法
人工智能
梯度下降法 ---
吴恩达深度学习笔记
损失函数是衡量单一训练样例的效果。代价函数用于衡量参数w和b的效果,在全部训练集上来衡量。如何使用梯度下降法来训练或者学习训练集上的参数w和b?回顾逻辑回归算法损失函数y^=σ(wTx+b),σ(z)=11+e−z,z=wTx+b\widehat{y}=σ(w^{T}x+b),\sigma(z)=\frac1{1+e^{-z}},z=w^{T}x+by=σ(wTx+b),σ(z)=1+e−z1,z
奕星星奕
·
2022-11-12 17:29
图像处理
算法
python
【
吴恩达深度学习笔记
-改善深层神经网络】——第一周深度学习的实用层面(1.3)
【
吴恩达深度学习笔记
-改善深层神经网络】——第一周深度学习的实用层面(1.3)1.3机器学习基础训练神经网络的基本方法:初识模型训练完成后,要看下算法的偏差高不高,如果较高,就试着评估训练集或训练数据的性能
醪糟小丸子
·
2022-11-01 23:04
深度学习
神经网络
网络
算法
深度学习
机器学习
吴恩达深度学习笔记
(四)
吴恩达深度学习笔记
(四)卷积神经网络CNN-第二版卷积神经网络深度卷积网络:实例探究目标检测特殊应用:人脸识别和神经风格转换卷积神经网络编程作业卷积神经网络CNN-第二版卷积神经网络更新部分:1.122.82.92.103.113.123.133.14
love_lqz
·
2022-09-11 07:23
深度学习
深度学习
计算机视觉
卷积神经网络
吴恩达深度学习笔记
——卷积神经网络(Convolutional Neural Networks)
深度学习笔记导航前言传送门卷积神经网络(ConvolutionalNeuralNetworks)卷积神经网络基础(FoundationsofConvolutionalNeuralNetworks)概述标记约定(notations):卷积神经网络一般架构卷积层(Convolution)卷积运算概述卷积运算的原理卷积玩法——填充边界(Padding)卷积玩法——步长控制(StridedConvolut
亦梦亦醒乐逍遥
·
2022-09-10 07:30
个人随笔/学习笔记
深度学习
cnn
神经网络
吴恩达深度学习笔记
(四)——深度学习的实践层面
一、数据集的划分要确保验证集和测试集的数据来自同一分布。二、偏差和方差方差:训练集和验证集的数据分布是否均匀,训练集和验证集之间的差别;偏差:训练集和真实结果的差别。高偏差:欠拟合高方差:过拟合理解偏差和方差的两个关键数据是训练集误差(Trainseterror)和验证集误差(Devseterror)。这里沿用的仍然是猫咪图片分类的例子:三、机器学习基础解决高方差:扩充数据集、正则化、或者其他模型
子非鱼icon
·
2022-09-04 07:43
深度学习自学笔记
深度学习
机器学习
人工智能
神经网络
吴恩达深度学习笔记
-布置机器学习项目(第4课)
布置机器学习项目一、训练集/验证集/测试集二、偏差与方差三、机器学习基础四、正则化五、为什么正则化可以减少过拟合?六、Dropout正则化七、理解Dropout八、其他正则化方法九、归一化输入十、梯度消失与梯度爆炸十一、神经网络的权重初始化十二、梯度的数值逼近十三、梯度检验十四、关于梯度检验实现的注意事项一、训练集/验证集/测试集划分数据为训练集、验证集和测试集可以减少确定超参数的迭代过程。在有1
郭少的研究生笔记
·
2022-08-19 07:04
吴恩达深度学习
机器学习
深度学习
人工智能
吴恩达深度学习笔记
4.1~4.8 深层神经网络
之前一章讲了浅层神经网络,这一章讲的是深层神经网络深层神经网络与浅层神经网络的区别是:隐藏层比浅层神经网络多,从命名规则上来说,有1,2,5个隐藏层的神经网络可以称为1hiddenlayer,2hiddenlayers,5hiddenlayers深层神经网络中的正向传播与之前举例的浅层神经网络一样,只是层数变得更多了,如下所示:对于每一层的正向传播我们可以用一个公式表示:其中L表示层数,g表示激活
banghu8816
·
2022-08-16 07:07
人工智能
吴恩达深度学习笔记
- lesson4 卷积神经网络
文章目录Week1卷积神经网络基础4.1.1计算机视觉(Computervision)4.1.2边缘检测示例(Edgedetectionexample)4.1.3更多边缘检测内容(Moreedgedetection)4.1.4Padding3.1.5卷积步长(Stridedconvolutions)4.1.6三维卷积(Convolutionsovervolumes)4.1.7单层卷积网络(Onel
廖梓强
·
2022-08-13 09:12
深度学习
人工智能
机器学习
python
吴恩达深度学习笔记
01——神经网络和深度学习2浅层神经网络
PS:梯度下降法(GradientDescent)是神经网络的核心方法,用于更新神经元之间的权重,以及每一层的偏置;反向传播算法(Back-PropagationAlgorithm)则是一种快速计算梯度的算法,将梯度反向传播回去,从而能够使得梯度下降法得到有效的应用。一、神经网络表示竖向堆叠起来的输入特征被称作神经网络的输入层(theinputlayer)。神经网络的隐藏层(ahiddenlaye
阿尔基亚
·
2022-08-13 09:11
吴恩达深度学习
吴恩达深度学习笔记
01——神经网络和深度学习1
实现一个神经网络时,如果需要遍历整个训练集,并不需要直接使用for循环。神经网络的计算过程中,通常有一个正向过程(forwardpass)或者叫正向传播步骤(forwardpropagationstep),接着会有一个反向过程(backwardpass)或者叫反向传播步骤(backwardpropagationstep)。一、Logistic回归Logistic回归是一个用于二分分类的算法。(二分
阿尔基亚
·
2022-08-13 09:11
吴恩达深度学习
吴恩达深度学习笔记
-单层神经网络(第2课)
深度学习笔记1、神经网络概览2、神经网络表示3、计算神经网络的输出4、多个样本的向量化5、向量化实现的解释6、激活函数7、为什么需要非线性激活函数?8、激活函数的导数9、神经网络的梯度下降法10、直观理解反向传播11、随机初始化1、神经网络概览z[i]表示第i层的输入,a[i]表示第i层的输出2、神经网络表示单层神经网络:【一般不把输入层看作一个标准层】隐藏层的含义是在训练集中,这些中间节点的真正
郭少的研究生笔记
·
2022-08-13 09:40
吴恩达深度学习
深度学习
神经网络
机器学习
吴恩达深度学习笔记
——卷积神经网络基础(1)
参考吴恩达深度学习视频和CSDN笔记https://blog.csdn.net/red_stone1/article/details/78651063P108ComputerVisionCV主要包括以下几类:图像分类目标检测图片风格迁移使用传统神经网络处理机器视觉的主要问题是输入层的维数过大,这使得权重矩阵非常庞大,使得网络结构复杂,数据量大,容易出现过拟合;内存、计算量大。解决这一问题的方法就是
Deserant
·
2022-08-13 09:40
吴恩达深度学习
吴恩达深度学习笔记
(一)——神经网络基础、 logistic 回归
观看了吴恩达老师的深度学习公开课,总结了部分个人觉得有益的知识点。参考链接一、数据结构当编写神经网络程序时,就不要用这种秩为1的数据结构,如shape等于(n,),或者是一维数组时。两对方括号和一对方括号,这就是1行5列的矩阵和一维数组的差别。二.隐藏层的含义三、L1W2作业3.1作业代码参考链接1参考链接2importnumpyasnpimportmatplotlib.pyplotaspltim
子非鱼icon
·
2022-08-13 09:10
深度学习自学笔记
深度学习
神经网络
吴恩达
逻辑回归分类器
deep
learning
吴恩达深度学习笔记
你将学习本系列课程(专业):神经网络和深度学习改进深度神经网络:超参数调优、正则化和优化构建你的机器学习项目吨/德卷积神经网络端到端自然语言处理:建立序列模型RNN,LSTM我的目标理解深度学习基本原理常用算法流程常用术语不求算术推导不求算术推导不求算术推导使用深度学习框架入门介绍例1房价预测模型输入映射输出监督学习有价值的图像卷积序列CNN时间序列语言序列RNNRNNS深度学习神经网络数据量和质
reno_yuan
·
2022-08-08 07:22
深度学习
python
人工智能
吴恩达深度学习笔记
-第三课:结构化机器学习项目
lesson3结构化机器学习项目文章目录lesson3结构化机器学习项目Week1机器学习(ML策略)(1)3.1.1为什么是ML策略?(WhyMLStrategy?)3.1.2正交化(Orthogonalization)3.1.3单一数字评估指标(Singlenumberevaluationmetric)3.1.4满足和优化指标(Satisficingandoptimizingmetrics)3
廖梓强
·
2022-08-08 07:42
深度学习
机器学习
人工智能
吴恩达深度学习笔记
-超参数调试、Batch正则化(第6课)
超参数调试一、调试处理二、为超参数选择合适的范围三、超参数训练的实践:PandasVSCaviar四、正则化网络的激活函数五、将BatchNorm拟合进神经网络六、BatchNorm为什么奏效?七、测试时的batchnorm八、softmax回归九、训练一个softmax分类器十、深度学习框架十一、Tensorflow一、调试处理在模型训练中需要调试许多超参数,例如:(1)学习率α;(2)动量下降
郭少的研究生笔记
·
2022-08-07 07:09
吴恩达深度学习
深度学习
batch
人工智能
山东大学项目实训十一——
吴恩达深度学习笔记
笔记已免费上传https://download.csdn.net/download/fangjiayou/85431944为什么使用深层表示?(Whydeeprepresentations?)我们都知道深度神经网络能解决好多问题,其实并不需要很大的神经网络,但是得有深度,得有比较多的隐藏层,这是为什么呢?我们一起来看几个例子来帮助理解,为什么深度神经网络会很好用。首先,深度网络在计算什么?首先,深
fangjiayou
·
2022-05-23 07:54
项目实训
深度学习
人工智能
计算机视觉
吴恩达深度学习笔记
吴恩达深度学习笔记
P3用神经网络进行监督学习P4深度学习的兴起P7二分分类P8logistic回归P10梯度下降法P14使用计算图求导P16批量梯度下降P17向量化P21广播机制P22关于numpyP24logistics
w_thout
·
2022-04-27 07:13
深度学习
神经网络
人工智能
吴恩达深度学习笔记
(83)-LeNet-5、AlexNet和VGGNet网络知多少
https://www.toutiao.com/a6646734819151577608/2019-01-2207:12:38经典网络(Classicnetworks)这节课,我们来学习几个经典的神经网络结构,分别是LeNet-5、AlexNet和VGGNet。LeNet-5首先看看LeNet-5的网络结构,假设你有一张32×32×1的图片,LeNet-5可以识别图中的手写数字,比如像这样手写数字
喜欢打酱油的老鸟
·
2022-02-28 07:27
人工智能
VGG
AlexNet
LeNet
吴恩达深度学习笔记
(54)-测试时的 Batch Norm
测试时的BatchNorm(BatchNormattesttime)Batch归一化将你的数据以mini-batch的形式逐一处理,但在测试时,你可能需要对每个样本逐一处理,我们来看一下怎样调整你的网络来做到这一点。回想一下,在训练时,这些就是用来执行Batch归一化的等式。在一个mini-batch中,你将mini-batch的z^((i))值求和,计算均值,所以这里你只把一个mini-batc
极客Array
·
2022-02-22 05:55
吴恩达深度学习笔记
(80)-卷积神经网络示例
构建全卷积神经网络的构造模块我们已经掌握得差不多了,下面来看个例子。假设,有一张大小为32×32×3的输入图片,这是一张RGB模式的图片,你想做手写体数字识别。32×32×3的RGB图片中含有某个数字,比如7,你想识别它是从0-9这10个数字中的哪一个,我们构建一个神经网络来实现这个功能。我用的这个网络模型和经典网络LeNet-5非常相似,灵感也来源于此。LeNet-5是多年前YannLeCun创
极客Array
·
2022-02-10 06:16
吴恩达深度学习笔记
(8)-重点-梯度下降法(Gradient Descent)
梯度下降法(GradientDescent)(重点)梯度下降法可以做什么?在你测试集上,通过最小化代价函数(成本函数)J(w,b)来训练的参数w和b,如图,在第二行给出和之前一样的逻辑回归算法的代价函数(成本函数)(上一篇文章已讲过)梯度下降法的形象化说明在这个图中,横轴表示你的空间参数w和b,在实践中,w可以是更高的维度,但是为了更好地绘图,我们定义w和b,都是单一实数,代价函数(成本函数)J(
极客Array
·
2022-02-08 23:47
吴恩达深度学习笔记
(12)-计算图计算梯度下降
逻辑回归中的梯度下降(LogisticRegressionGradientDescent)本节我们讨论怎样通过计算偏导数来实现逻辑回归的梯度下降算法。它的关键点是几个重要公式,其作用是用来实现逻辑回归中梯度下降算法。但是在本节中,将使用计算图对梯度下降算法进行计算。必须要承认的是,使用计算图来计算逻辑回归的梯度下降算法有点大材小用了。但是,以这个例子作为开始来讲解,可以使你更好的理解背后的思想。从
极客Array
·
2021-06-24 12:12
吴恩达深度学习笔记
(16)-神经网络的表示与输出计算
神经网络的表示(NeuralNetworkRepresentation)先回顾一下我在上一篇笔记画几张神经网络的图片,在这次,我们将讨论这些图片的具体含义,也就是我们画的这些神经网络到底代表什么。我们首先关注一个例子,本例中的神经网络只包含一个隐藏层(图1)。这是一张神经网络的图片,让我们给此图的不同部分取一些名字。图1我们有输入特征x_1、x_2、x_3,它们被竖直地堆叠起来,这叫做神经网络的输
极客Array
·
2021-06-22 10:10
吴恩达深度学习笔记
(14)-Python中的广播(Broadcasting in Python)
Python中的广播(BroadcastinginPython)这个广播的入门讲解先从一个栗子开始:这是一个不同食物(每100g)中不同营养成分的卡路里含量表格,表格为3行4列,列表示不同的食物种类,从左至右依次为苹果,牛肉,鸡蛋,土豆。行表示不同的营养成分,从上到下依次为碳水化合物,蛋白质,脂肪。那么,我们现在想要计算不同食物中不同营养成分中的卡路里百分比。现在计算苹果中的碳水化合物卡路里百分比
极客Array
·
2021-05-16 17:39
吴恩达深度学习笔记
(69)-端到端的深度学习
什么是端到端的深度学习?(Whatisend-to-enddeeplearning?)深度学习中最令人振奋的最新动态之一就是端到端深度学习的兴起,那么端到端学习到底是什么呢?简而言之,以前有一些数据处理系统或者学习系统,它们需要多个阶段的处理。那么端到端深度学习就是忽略所有这些不同的阶段,用单个神经网络代替它。我们来看一些例子,以语音识别为例,你的目标是输入x,比如说一段音频,然后把它映射到一个输
极客Array
·
2021-05-08 04:16
吴恩达深度学习笔记
(7)--逻辑回归的代价函数(Cost Function)
在上一篇文章中,我们讲了逻辑回归模型,这里,我们讲逻辑回归的代价函数(也翻译作成本函数)。吴恩达让我转达大家:这一篇有很多公式,做好准备,睁大眼睛!代价函数很重要!为什么需要代价函数:为了训练逻辑回归模型的参数w和参数b我们,需要一个代价函数,通过训练代价函数来得到参数w和参数b。先看一下逻辑回归的输出函数:为了让模型通过学习调整参数,你需要给予一个m样本的训练集,这会让你在训练集上找到参数w和参
极客Array
·
2021-04-29 16:47
上一页
1
2
3
4
5
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他