E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达深度学习
吴恩达深度学习
:class4week3 作业bug
computeiou在我看的参考作业里面关于iou种inner_area的计算是如下所示的:xi1=max(box1[0],box2[0])yi1=max(box1[1],box2[1])xi2=min(box1[2],box2[2])yi2=min(box1[3],box2[3])inter_area=(xi2-xi1)*(yi2-yi1)但是实际运行的时候报错,意思是max函数不能这样用虽然这
Kurt Sun
·
2020-06-29 09:58
CNN卷积神经网络工作原理总结
CNN卷积神经网络工作原理总结本文主要对
吴恩达深度学习
中卷积神经网络的课程进行了学习,下面是CNN工作原理总结。1.边缘检测==========在学习CNN的工作原理时首先从图像识别入手。
彭芋圆
·
2020-06-29 05:54
CNN
吴恩达深度学习
第二课第一周作业及学习心得体会——初始化权重、L2正则化、dropout
概述学习课程后,再第一周第四课作业的基础上完成该周作业,现将心得体会记录如下。初始化权重代码更改在之前的建立神经网络的过程中,提到权重w不能为0,而将它初始化为一个随机的值。然而在一个深层神经网络中,当w的值被初始化过大时,进入深层时呈指数型增长,造成梯度爆炸;过小时又会呈指数级衰减,造成梯度消失。Python中将w进行随机初始化时,使用numpy库中的np.random.randn()方法,ra
袁野_0073
·
2020-06-29 05:30
吴恩达深度学习
——学习笔记
一、神经网络和深度学习1.了解到了神经网络是怎样一种结构:input->hiddinglayers->output,其中hiddinglayers(隐藏层)可以设置多个layers,每一层可以设置多个节点(神经元)2.3种激活函数:sigmoid(通常用于回归、二分类等问题中)、tanh、ReLu,而且必须有非线性的激活函数,否则数据输入进来只是经过一系列线性组合然后输出。3.W和b的初始化问题:
科研鬼才
·
2020-06-29 05:26
笔记
吴恩达深度学习
网课 通俗版笔记——(01.神经网络和深度学习)第二周 神经网络基础
神经网络和深度学习——神经网路基础这一部分由于在机器学习课程中基本上已经学习过了,笔记也就简单罗列一下要点,相信大家都比较熟悉。2.1二分分类该节主要给出一些符号定义,学过机器学习课程后应该比较熟悉。Python中使用X.shape来显示矩阵维度,还有一点要注意的是这里使用一列表示一个样本,而行数则是特征向量的维度。(由于时间关系公式基本上就截图了,等到后面重点复杂章节的时候再手敲)2.2logi
风中一匹狼v
·
2020-06-29 04:18
深度学习网课笔记
吴恩达深度学习
网课 通俗版笔记——(02.改善深层神经网络)第二周 优化算法
改善深层神经网络——优化算法前面已经学会了基本的神经网络搭建,但只有把参数调好,使各项设置更符合自己的问题,才能最大化网络性能2.1Mini-batch梯度下降法在前面的梯度下降法中,使用向量化的方法对多样本进行了处理,当数据量非常大时(百万级以上),一次性迭代遍历所有训练集运算速度会很慢。Mini-batch:将训练集分割成k个子集,在每个子集上进行梯度下降,这样每一次迭代都会进行k次梯度下降,
风中一匹狼v
·
2020-06-29 04:18
深度学习网课笔记
吴恩达深度学习
网课 通俗版笔记——(04.卷积神经网络)第一周 卷积神经网络
卷积神经网络1.1计算机视觉计算机视觉是深度学习中的一个分支领域,主要是对图片进行处理。在对图片进行处理时,输入的特征往往都是像素值,如果图片很大则会造成参数非常多,那么学习起来相当复杂而且容易过拟合,因此引出卷积运算。1.2边缘检测示例该节讲了如果进行卷积运算,以及垂直边缘检测的概念。垂直边缘通俗地说就是一张图片里,垂直方向的一些线条、轮廓等等。图片像素矩阵和一个方阵(称为过滤器)进行卷积运算,
风中一匹狼v
·
2020-06-29 04:18
深度学习网课笔记
吴恩达深度学习
网课 通俗版笔记——(02.改善深层神经网络)第一周 深度学习的实用层面
改善深层神经网络——深度学习的实用层面前面已经学会了基本的神经网络搭建,但只有把参数调好,使各项设置更符合自己的问题,才能最大化我们的预测准确率。这一周的内容在机器学习网课中实际上大部分都已经有讲,注意一些更新变化的点。1.1训练/验证/测试集该节主要是讲如何分割训练集、验证集和测试集。只有训练集和测试集——7:3三者都有——6:2:2百万级数据——训练集占到99%以上还有一点就是验证集和测试集的
风中一匹狼v
·
2020-06-29 04:18
深度学习网课笔记
指数加权移动平均法(EWMA)
**本文内容来自于
吴恩达深度学习
公开课1、概述加权移动平均法,是对观察值分别给予不同的权数,按不同权数求得移动平均值,并以最后的移动平均值为基础,确定预测值的方法。
weixin_30454481
·
2020-06-27 20:31
深度学习优化算法实现(Momentum, Adam)
本文只记录完成
吴恩达深度学习
作业时遇到的Momentum和Adam算法,而且只有简要的代码。
萝卜地里的兔子
·
2020-06-27 04:26
机器学习
吴恩达深度学习
卷积神经网络学习笔记(2)——经典神经网络
目录1.经典网络1.1LeNet-5(1998)1.2AlexNet1.3VGG-162ResNets(残差网络)2.1残差块(Residualblock)2.2残差网络为什么有用?2.3网络中的网络以及1x1卷积3谷歌Inception网络1.经典网络1.1LeNet-5(1998)假设有一张32x32x1的图片,LeNet-5可以识别图片中的手写数字。LeNet-5是针对灰度图像训练的。199
steadfastly
·
2020-06-26 22:39
深度学习
吴恩达深度学习
卷积神经网络学习笔记(3)——迁移学习
1使用开源的实现方案在GitHub资源库,需要感兴趣的网络的代码。下载方式:复制url在终端输入:gitclone+url2迁移学习找开源训练好了的网络。由于深度学习的训练,可能需要十几个GPU和几周的时间。数据集小:1)前面还是使用开源的网络框架和参数,修改最后的softmax层,训练该层的参数;2)删除倒数几层,修改最后的softmax层,训练该层的参数;3)初始化倒数几层,修改最后的soft
steadfastly
·
2020-06-26 22:37
深度学习
【深度学习下一大突破】吴恩达对话 Hinton、Bengio、Goodfellow(视频)
【深度学习下一大突破】吴恩达对话Hinton、Bengio、Goodfellow(视频)[日期:2017-08-11]来源:新智元作者:[字体:大中小]【新智元导读】
吴恩达深度学习
系列课程Deeplearning.ai
starzhou
·
2020-06-26 14:09
《深度学习和机器学习》吴恩达 ——学习笔记(一)
(一)概论本文为作者学习笔记,转载请注明出处视频教程来源:deeplearning.ai
吴恩达深度学习
视频教程http://mooc.study.163.com/smartSpec/detail/1001319001
木女Dawn
·
2020-06-26 12:46
深度学习
吴恩达深度学习
课程笔记之卷积神经网络基本操作详解
卷积层CNN中卷积层的作用:CNN中的卷积层,在很多网络结构中会用conv来表示,也就是convolution的缩写。卷积层在CNN中扮演着很重要的角色——特征的抽象和提取,这也是CNN区别于传统的ANN或SVM的重要不同。对于图片而言,图片是一个二维度的数据,我们怎样才能通过学习图片正确的模式来对于一张图片有正确的对于图片分类呢?这个时候,有人就提出了一个观点,我们可以这样,对于所有的像素,全部
qinjianhuang
·
2020-06-26 11:46
机器学习
机器学习
【改善神经网络】Lesson 3--超参数调试、batch正则化与程序框架
课程来源:
吴恩达深度学习
课程《改善神经网络》笔记整理:王小草时间:2018年5月29日1.超参数调试1.1超参数至此,神经网络基本的超参数已经遇到了这些(按重要性分类):第一重要:learningrate
王小小小草
·
2020-06-26 11:14
独家干货 |
吴恩达深度学习
专项课程精炼笔记!
点击上方“AI有道”,选择“星标”公众号重磅干货,第一时间送达吴恩达在他自己创办的在线教育平台Coursera上线了他的人工智能专项课程(DeepLearningSpecialization)。此课程广受好评,通过视频讲解、作业与测验等让更多的人对人工智能有了了解与启蒙,国外媒体报道称:吴恩达这次深度学习课程是迄今为止,最全面、系统和容易获取的深度学习课程,堪称普通人的人工智能第一课。本文列出了吴
红色石头Will
·
2020-06-26 05:54
737 页《
吴恩达深度学习
核心笔记》发布,黄海广博士整理!
点击上方“AI有道”,选择“置顶”公众号重磅干货,第一时间送达深度学习入门首推课程就是吴恩达的深度学习专项课程系列的5门课。该专项课程最大的特色就是内容全面、通俗易懂并配备了丰富的实战项目。今天,给大家推荐一份关于该专项课程的核心笔记!这份笔记只能用两个字形容:全面!课程概述关于该深度学习专项课程,红色石头非常推荐!它对于理解各种算法背后的原理非常有帮助,同时提供了大量的应用场景,涉及图像、语音、
红色石头Will
·
2020-06-26 05:54
深度学习笔记(四)---YOLO目标检测
卷积神经网络-第三周作业(https://blog.csdn.net/u013733326/article/details/80341740#commentsedit)[3].yolo.h5文件问题的解决-
吴恩达深度学习
Jayden yang
·
2020-06-25 22:36
深度学习笔记
深度学习入门首推资料--
吴恩达深度学习
全程笔记分享
本文首发于微信公众号“StrongerTang”,可打开微信搜一搜,或扫描文末二维码,关注查看更多文章。原文链接:(https://mp.weixin.qq.com/s?__biz=Mzg3NDEzOTAzMw==&mid=2247483739&idx=1&sn=90a0ef1ff6c90514f397e9b6f3c74b83&chksm=ced41dadf9a394bbba683cf597ee7
StrongerTang
·
2020-06-25 20:56
资料分享
《
吴恩达深度学习
工程师系列课程之——神经网络和深度学习》学习笔记
吴恩达先生的机器学习工程师系列课程共分为五个自课程,包括:神经网络和深度学习改善深层神经网络:超参数调试、正则化以及优化结构化机器学习项目卷积神经网络序列模型如今,我刚学完第一个课程,神经网络这一部分,由于我数学功底较好,大一大二期间学过概率论与数理统计、线性代数、高等数学、复变函数与积分变换这些课程,入门还是比较容易。因为神经网络的基础就是矩阵计算以及相关函数。此外,我的MATLAB程序设计这门
商毅
·
2020-06-25 14:48
人工智能
目标检测学习(
吴恩达深度学习
)
目标检测目标分类与定位(classificationwithlocalization)滑动窗口的卷积实现YOLOalgorithm交并比(Intersectionoverunion)非极大值抑制(Non-maxsuppression)1.目标分类与定位训练一个卷积神经网络,标签为类别和边界框的坐标值,labels={c,bx,by,bh,bw}2.滑动窗口的卷积实现将FC神经网络转化为卷积神经网络
qq_38212976
·
2020-06-25 13:44
吴恩达深度学习
—— 4.3 核对矩阵的维数
当实现深度神经网络的时候,常用的检验代码是否有错的方法是拿出一张纸,然后过一遍算法中矩阵的维数,下面会向大家展示具体怎么做。在上图的神经网络中,神经网络的层数为5层,总共有4个隐层和一个输出层,如果你想实现正向传播,第一步是z[1]=w[1]x+b[1]z^{[1]}=w^{[1]}x+b^{[1]}z[1]=w[1]x+b[1],现在先忽略偏置项,只关注参数w。图中的第一隐藏层有三个隐藏单元,第
努力努力努力努力
·
2020-06-25 12:13
吴恩达深度学习
吴恩达深度学习
——2.2 Logistic回归
logistic回归是一个学习算法,用在监督学习问题中,输出y标签是0或1时,这是一个二元分类问题。已知输入的特征向量x可能是一张图,你希望能识别出这是不是猫图,你需要一个算法,可以给出一个预测值,我们说预测值y^\hat{y}y^,就是你对y的预测,更正式地说,你希望y^\hat{y}y^是一个概率,当输入特征x满足条件时,y就是1(y^=P(y=1∣x))(\hat{y}=P(y=1|x))(
努力努力努力努力
·
2020-06-25 12:13
吴恩达深度学习
吴恩达深度学习
——深层神经网络(选择题)
1、在实现前向传播和反向传播中使用的“cache”是什么?(D)A.它用于跟踪我们正在搜索的超参数,以加速计算。B.用于在训练期间缓存代价函数的中间值。C.我们使用它传递反向传播中计算的变量到相应的前向传播步骤,它包含对于前向传播计算导数有用的变量。D.我们使用它传递前向传播中计算的变量到相应的反向传播步骤,它包含对于反向传播计算导数有用的变量。“缓存”记录来自正向传播单元的值,并将其发送到反向传
努力努力努力努力
·
2020-06-25 12:13
吴恩达深度学习
吴恩达深度学习
——2.1 二分分类
本周我们会学习神经网络编程的基础知识,当要构建一个神经网络,有些技巧是相当重要的。例如,m个样本的训练集,你可能会习惯性地去用一个for循环,来遍历这m个样本。事实上,实现一个神经网络,如果要遍历整个训练集,并不需要直接使用for循环。这周的课程,你会学到如何做到。还有就是,在神经网络的计算过程中,通常有一个正向过程,或者叫正向传播过程,接着会有一个反向步骤,,也叫做反向传播过程。为什么神经网络的
努力努力努力努力
·
2020-06-25 12:13
吴恩达深度学习
吴恩达深度学习
第四章卷积神经网络——第二周深度卷积网络:实例探究
讲到的经典CNN模型包括:LeNet-5AlexNetVGG此外还有ResNet(ResidualNetwork,残差网络),以及InceptionNeuralNetwork。经典卷积网络LeNet-5特点:LeNet-5针对灰度图像而训练,因此输入图片的通道数为1。该模型总共包含了约6万个参数,远少于标准神经网络所需。典型的LeNet-5结构包含卷积层(CONVlayer),池化层(POOLla
倚剑笑紅尘
·
2020-06-25 11:32
机器学习
机器学习
深度学习(coursera
吴恩达深度学习
课程笔记——神经网络与深度学习)
断断续续学了大概一学期,对于机器学习依然似懂非懂,最近在看吴恩达的深度学习,想着以写博客的方式来总结回顾一下,也便于自己之后复习,如果一些自己的理解有误的也希望有人能指出纠正,如果能得到网上大家的帮助或者鼓励当然就是最好了!1,什么是神经网络1.1单层神经网络下图是房价预测示例,根据房屋大小预测房屋价格。图中的×即为给定的房屋大小以及该面积下的价格,然后用一条曲线去拟合现有数据,这样,再给出一个新
吃辣椒的猪
·
2020-06-25 08:27
吴恩达深度学习
笔记-卷积神经网络
04.卷积神经网络第一周卷积神经网络1.1计算机视觉1.2边缘检测示例垂直边缘检测vertical1.3更多边缘检测内容边缘过渡水平边缘检测horizontal1.4padding问题:卷积后图片缩小;边缘信息丢失过滤器(卷积核)一般都为奇数(原因:1、可以对称填充;2、有中心点)输出行=n+2*p-f+1Valid卷积:不填充;Same卷积:填充要使输出行与输入行相等,即n+2*p-f+1=n那
小墨青
·
2020-06-25 07:42
Python
机器学习
吴恩达深度学习
总结(1)
DeaplearningAI01.weak2forwardbackward本周主要介绍了神经网络中forward和backward的一般实现和向量实现。一般实现较为简单,向量实现中存在一些疑点X\boldsymbol{X}X是一个由训练集组成的矩阵,每一列代表一个数据,列数为数据的大小ω\boldsymbol{\omega}ω是训练参数,大小与X\boldsymbol{X}X一列的大小一致bbb为
夜夜0810
·
2020-06-25 07:57
吴恩达深度学习
吴恩达深度学习
(一)
神经网络本质上输入与输出之间的一种映射关系一般来讲有三种standard神经网络(计算广告)CNN(处理图片)RNN(包含时间)引入神经网络增强了计算机对于非结构化数据的处理能力。(图片来源于吴恩达教授深度学习之神经网络与深度学习1.3)传统机器学习的方法:SVM(支持向量机)逻辑回归开始会随着数据量增加性能有所提升但是很快进入“平台期”,这就导致其无法处理海量数据。要训练性能较好的神经网络,1神
sophiemain
·
2020-06-25 03:43
Coursera-吴恩达-深度学习-改善深层神经网络:超参数调试、正则化以及优化-week3-测验
本文章内容:Coursera
吴恩达深度学习
课程,第二课,改善深层神经网络:超参数调试、正则化以及优化(ImprovingDeepNeuralNetworks:Hyperparametertuning,RegularizationandOptimization
帅金毛
·
2020-06-24 22:26
Deep
learning
Coursera-吴恩达-深度学习-改善深层神经网络:超参数调试、正则化以及优化-week2-测验
本文章内容:Coursera
吴恩达深度学习
课程,第二课,改善深层神经网络:超参数调试、正则化以及优化(ImprovingDeepNeuralNetworks:Hyperparametertuning,RegularizationandOptimization
帅金毛
·
2020-06-24 22:26
Deep
learning
深度学习权重参数初始化要点
今天做
吴恩达深度学习
第1课第4周的编程作业,参数初始化按照指南中“-Userandominitializationfortheweightmatrices.Usenp.random.rand(shape
pestzhang
·
2020-06-24 19:20
机器学习
一些
吴恩达深度学习
教程笔记
下降法1.梯度下降算法2.动量(Momentum)梯度下降法向着最小点的方向加速,与这个方向垂直方向减速v=β∗v+(1−β)∗v=β∗v+(1−β)∗数据tβ越小,就越关注当前数据,也就是曲线的细节动量梯度下降法,就是在原来的梯度下降法上面改动,把参数w和b的更新参考值选为Vw而不是原来的dw,也就是选择速度。这个速度是由上一个速度以及当前的dw一起组成的,当然了还有参数β,这个值通常选择0.9
无名份的浪漫2018
·
2020-06-24 19:18
计算机视觉
吴恩达深度学习
笔记(89)-迁移学习(Transfer Learning)
迁移学习(TransferLearning)如果你要做一个计算机视觉的应用,相比于从头训练权重,或者说从随机初始化权重开始,如果你下载别人已经训练好网络结构的权重,你通常能够进展的相当快,用这个作为预训练,然后转换到你感兴趣的任务上。计算机视觉的研究社区非常喜欢把许多数据集上传到网上,如果你听说过,比如ImageNet,或者MS_COCO,或者Pascal类型的数据集,这些都是不同数据集的名字,它
极客Array
·
2020-06-24 19:06
深入理解
吴恩达深度学习
(01神经网络和深度学习 第四周深层神经网络
深入理解
吴恩达深度学习
(01神经网络和深度学习第四周深层神经网络)4.1深层神经网络(DeepL-layerneuralnetwork)4.2前向传播和反向传播(Forwardandbackwardpropagation
nnlzb66
·
2020-06-24 17:20
深入理解
吴恩达深度学习
(01神经网络和深度学习 第三周 单隐藏层神经网络)
深入理解
吴恩达深度学习
(01神经网络和深度学习第三周单隐藏层神经网络)1引言第三周:浅层神经网络(Shallowneuralnetworks)3.1神经网络概述(NeuralNetworkOverview
nnlzb66
·
2020-06-24 17:18
吴恩达深度学习
B站
吴恩达深度学习
视频笔记(27)——为什么使用卷积
前言啊,不得不说吴恩达使用的例子非常难描述。所以我偷懒用Keras做了卷积的小例子。但是这节课要用到之前的例子了,所以我不得不把应该在上节课的例子再补上。哎,该来的还是要来,逃不掉的。卷积神经网络实例构建全卷积神经网络的构造模块我们已经掌握得差不多了,下面来看个例子。假设,有一张大小为32×32×3的输入图片,这是一张RGB模式的图片,你想做手写体数字识别。32×32×3的RGB图片中含有某个数字
nine_mink
·
2020-06-24 17:39
B站吴恩达深度学习视频笔记
B站
吴恩达深度学习
视频笔记(15)——端到端的深度学习
前言从这篇笔记开始,我们来学习卷积神经网络。不过在学习卷积之前,你需要理解端到端的深度学习。笔记会从各种实际例子出发,让大家更好地理解知识。同时,需要说明的一点是,由于卷积涉及神经网络的知识非常多,有很多模型都是基于卷积神经网络的。由于我优先按照学校老师讲知识的进度更新笔记,所以这些模型很可能不会涉及。可能要等到后面几篇笔记才会讲到很高级的卷积应用。为啥隔了这么长时间呢,因为学校老师突然讲卷积,搞
nine_mink
·
2020-06-24 17:08
B站吴恩达深度学习视频笔记
B站
吴恩达深度学习
视频笔记(25)——池化层(Pooling)
池化层除了卷积层,卷积网络也**经常使用池化层来缩减模型的大小,提高计算速度,同时提高所提取特征的鲁棒性,**我们来看一下。先举一个池化层的例子,然后我们再讨论池化层的必要性。假如输入是一个4×4矩阵,用到的池化类型是最大池化(maxpooling)。执行最大池化的树池是一个2×2矩阵。执行过程非常简单,把4×4的输入拆分成不同的区域,我把这个区域用不同颜色来标记。对于2×2的输出,输出的每个元素
nine_mink
·
2020-06-24 17:08
B站吴恩达深度学习视频笔记
吴恩达深度学习
课程第五课笔记——序列模型
文章目录第五门课序列模型(SequenceModels)第一周循环序列模型(RecurrentNeuralNetworks)1.1为什么选择序列模型?(WhySequenceModels?)1.2数学符号(Notation)1.3循环神经网络模型(RecurrentNeuralNetworkModel)1.4通过时间的反向传播(Backpropagationthroughtime)1.5不同类型的
solejay
·
2020-06-24 12:19
nlp
深度学习
吴恩达学习笔记
吴恩达深度学习
第一课笔记——神经网络和深度学习
文章目录第一周:深度学习引言(IntroductiontoDeepLearning)1.2什么是神经网络?(WhatisaNeuralNetwork)1.4为什么深度学习会兴起?(WhyisDeepLearningtakingoff?)“Scaledrivesdeeplearningprogress”1.5总结第二周:神经网络的编程基础(BasicsofNeuralNetworkprogrammi
solejay
·
2020-06-24 12:47
深度学习
吴恩达学习笔记
吴恩达深度学习
课程笔记
lossfunciton:是单个例子相对于真实标签的误差costfunction:是整个数据集产生的lossfunction的总和,机器学习训练的过程中就是要不断的减小这个costfunciton逻辑回归几乎所有的初始化方式都有效,因为选择的损失函数是交叉熵,是一个凸函数。第四周深层神经网络核对矩阵的维度:第l层的权重w的维度应该为(n_[l],n_[l-1]),偏置为:(n_[l],1)。同理:
PCChris95
·
2020-06-24 11:35
深度学习
Momentum、RMSprop、Adam
吴恩达深度学习
笔记要说Momentum、RMSprop、Adam这三个优化器就要先讲讲指数加权平均指数加权平均上图是一年中365天的温度变化指数加权平均的等式是:Vt=βVt-1+(1-β)θtθt代表第
lx127372
·
2020-06-24 10:40
深度学习
深度学习
吴恩达深度学习
——人脸识别和风格迁移
.
吴恩达深度学习
——人脸识别和风格迁移一、人脸识别1、人脸验证2、人脸识别3、一次学习4、Siamese网络5、三元组损失函数(tripletlossfunction)6、面部验证与二分类二、风格迁移1
ZeroRains
·
2020-06-24 01:22
吴恩达深度学习
——目标检测学习
吴恩达深度学习
——目标检测学习目标检测概述一、目标定位:1.边界界框参数2.输出结果定义3.损失函数定义二、特征点检测三、目标检测1.基于滑动窗的目标检测算法2.在卷积层中应用滑动窗目标检测3.YOLO
ZeroRains
·
2020-06-24 01:22
计算机视觉
python
神经网络
吴恩达深度学习
课程疑难点笔记系列-结构化机器学习项目-第1周&第2周
本笔记系列参照
吴恩达深度学习
课程的视频和课件,并在学习和做练习过程中从CSDN博主何宽和博客园的博主marsggbo分享的文章中得到了帮助,再此表示感谢。
黄水生
·
2020-06-23 20:17
吴恩达深度学习
吴恩达深度学习
视频总结
在接触深度学习的时候有很多新的名词,例如正向传递、反向传递、激活函数等等。深度学习中运用了很多导数计算,很多人已经把导数忘得一干二净,也有很多人对导数的了解只是皮毛,这就是为什么会让人觉得学习这门技能门槛高。我很感谢吴恩达教授开设了这么课,让我重新拾起了对数学的理解,也同时让我明白网上很多教程讲的是什么。我大概整理了一下内容,希望能给自己有更深刻的理解,同时也希望能帮助到别人。导数我从吴老师的课中
处在水深火热的iOS_林龙
·
2020-06-23 20:28
吴恩达深度学习
视频-中英字幕
在B站里想看
吴恩达深度学习
视频,但是那个视频的字幕让人很难受,很多时候都是对不上的,对英语不行的我来说,实在是太折磨人了。弹幕里也有很多人抱怨字幕问题。
include_xy
·
2020-06-23 18:00
深度学习
教学
深度学习
上一页
9
10
11
12
13
14
15
16
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他