E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达深度学习课程
深度学习笔记-
吴恩达
深度学习-
吴恩达
文章目录深度学习-
吴恩达
前言一、神经网络1.随机初始化2.深层神经网络的前向传播3.核对矩阵的维数4.为什么使用深层表示5.搭建深层神经网络块6.前向传播与反向传播7.参数与超参数前言随着人工智能的不断发展
Mr. 嘿
·
2022-11-19 19:59
深度学习
吴恩达
老师的机器学习与深度学习贴
吴恩达
老师的机器学习与深度学习贴机器学习第一周:首先,老师举例说明,机器学习的几个显示生活中的例子:包括无人机的实验运行,垃圾邮件的识别,软件APP的内容推广,甚至谷歌新闻的同一类型的内容分块等等。
weixin_41840630
·
2022-11-19 19:58
机器学习
深度学习
吴恩达
《机器学习》学习笔记(一)
目录一、机器学习什么是神经网络?为什么要引入ReLU?监督学习supervisedlearning为什么深度学习会兴起?二、Logisticregression二分类逻辑回归模型代价函数costfunction为什么需要代价函数?损失函数lossfunction梯度下降gradientdecent计算图向量化numpy广播机制一、机器学习什么是神经网络?神经网络类似一个函数y=f(x),神经网络可
梦想的小鱼
·
2022-11-19 19:56
机器学习
机器学习
深度学习
人工智能
吴恩达
深度学习教程参考链接
暑假无事,几周时间匆匆过了一下
吴恩达
老师的深度学习教程前四章的内容,对于
吴恩达
老师的敬仰之情又多了一分,至于序列模型也只能开学之后在看了。还要感谢黄博士团队的翻译成的中文笔记,让我受益匪浅。
晓风wangchao
·
2022-11-19 19:19
课程学习
人工智能
深度学习
机器学习/深度学习入门建议
深度学习入门建议第一阶段:Python基础视频:(选一个喜欢的就行)第二阶段:常用模块numpymatplotlibpandas书籍的话推荐看看《利用Python进行数据分析》第三阶段:机器学习基础建议观看
吴恩达
老师的课程
程序猿-饭饭
·
2022-11-19 19:16
python
人工智能
深度学习
逻辑回归
吴恩达
深度学习入门
1.视频网站:mooc慕课https://mooc.study.163.com/university/deeplearning_ai#/c2.详细笔记网站(中文):http://www.ai-start.com/dl2017/3.github课件+作业+答案:https://github.com/stormstone/deeplearning.ai
费马定理
·
2022-11-19 19:10
深度学习
吴恩达
《深度学习》笔记+代码实战(一):深度学习入门
最近在学
吴恩达
的《深度学习专项》(DeepLearningSpecialization)。为了让学习更有效率(顺便有一些博文上的产出),我准备写一些学习笔记。
大局观选手周弈帆
·
2022-11-19 19:09
吴恩达深度学习
python
深度学习
人工智能
吴恩达
深度学习笔记整理(五)
目录优化算法Mini-batch梯度下降理解mini-batch梯度下降法怎么选择适合的batchsize?指数加权平均数理解指数加权平均数公式:指数加权平均的偏差修正动量梯度下降法RMSpropAdam优化算法学习率衰减为什么衰减?局部最优局部最优解鞍点优化算法Mini-batch梯度下降深度学习的优势是可以利用一个巨大的数据集来训练神经网络,而在巨大的数据集基础上进行训练速度很慢。这时,我们可
梦想的小鱼
·
2022-11-19 18:32
机器学习
人工智能
深度学习
神经网络
什么是神经网络?
监督学习与深度学习神经网络的分类数据类型StructureddataUnstructureddata数据到底怎样传入到神经网络的呢 笔记来源于:床长人工智能教程
吴恩达
深度学习deeplearning.ai
樊鴻燁
·
2022-11-19 18:50
#
深度学习
神经网络
python
神经网络是如何进行预测的?
笔记来源于:床长人工智能教程
吴恩达
深度学习deeplearning.ai 上一篇文章,我们初步了解到了神经网络的原来,神经网络是怎么一回事儿,神经网络的分类以及数据是以何种形式传入神经网络,下面我们来介绍神经网络其他背后的逻辑
樊鴻燁
·
2022-11-19 18:49
#
深度学习
神经网络
深度学习
人工智能
【深度学习
吴恩达
】神经网络和深度学习--第二周课后测验及编程作业
测验题5.Considerthetwofollowingrandomarrays“a”and“b”:(看一下下面的这两个随机数组“a”和“b”)a=np.random.randn(4,3)#a.shape=(4,3)b=np.random.randn(3,2)#b.shape=(3,2)c=a*bWhatwillbetheshapeof“c”?(请问数组“c”的维度是多少?)Answer:Thec
早知晓
·
2022-11-19 14:56
深度学习
神经网络
python
机器学习笔记(第一周课程)
上一篇是python的学习笔记,因为自己太放松,就没怎么更新下去,现在是做一篇机器学习笔记,学习的视频是
吴恩达
老师讲的2022的机器学习,这篇文章记录一下课程中第一课第一周的学习内容,以及相关的练习题的训练
chunqiuchan
·
2022-11-19 14:22
python
人工智能
吴恩达
《深度学习专项》第一阶段总结与第二阶段预览
经过前四周的学习,我们已经学完了《深度学习专项》的第一门课程《神经网络与深度学习》。让我们总结一下这几周学的知识,查缺补漏。《神经网络与深度学习》知识回顾概览在有监督统计机器学习中,我们会得到一个训练集。训练集中的每一条训练样本由输入和输出组成。我们希望构建一个数学模型,使得该模型在学习了训练集中的规律后,能够建立起输入到输出的映射。在深度学习中,使用的数学模型是深度神经网络。神经网络一般可以由如
大局观选手周弈帆
·
2022-11-19 14:45
吴恩达深度学习
深度学习
神经网络
机器学习
深度学习课程
作业——手写数字识别(卷积神经网络)
本实验过程需要用到torchvision包,没有安装的小伙伴,windows用户可直接使用cmd命令,输入命令行pipinstalltorchvision即可。【仍安装不了的,建议csdn直接查找安装教程】一、加载数据集1.1导入实验可能用到的包、库等#导入所需要的包importtorchvision.datasetsasdsetsimporttorchvision.transformsastra
m0_59998867
·
2022-11-19 13:58
卷积神经网络
深度学习
吴恩达
-机器学习课后题06-SVM(支持向量机)1-线性可分
1、概念1、支持向量机:支持向量机(supportvectormachines,SVM)是一种二分类模型,它的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机;SVM还包括核技巧,这使它成为实质上的非线性分类器。SVM的的学习策略就是间隔最大化,可形式化为一个求解凸二次规划的问题,也等价于正则化的合页损失函数的最小化问题。SVM的的学习算法就是求解凸二次规划的最优化算法。
NULL326
·
2022-11-19 12:35
机器学习-NG-Test
吴恩达
机器学习作业5:偏差和方差(Python实现)
机器学习练习5-RegularizedLinearRegressionandBiasv.s.VarianceIntroduction在本练习中,将实现正则化线性回归,并使用它来研究具有不同偏差-方差的模型。1RegularizedLinearRegression(正则线性回归)在练习的前半部分,将实现正则化的线性回归,利用水库水位的变化来预测从大坝流出的水量。在后半部分,将通过调试学习算法的参数,
Phoenix_ZengHao
·
2022-11-19 11:59
机器学习
python
机器学习
人工智能
sklearn
“损失函数”是如何设计出来的?直观理解“最小二乘法”和“极大似然估计法”
就像是网上非常火的,
吴恩达
讲深度学习的课程里面,他就提到了两个损失函数。也就是红框里的那两个函数。
王木头学科学
·
2022-11-19 09:28
深度学习
神经网络
机器学习
人工智能
深度学习-
吴恩达
-笔记-5-深度学习的实践层面
方差机器学习基础正则化为什么正则化有利于预防过拟合dropout正则化理解dropout其它正则化方法归一化输入梯度消失/梯度爆炸神经网络的权重初始化梯度的数值逼近梯度检验梯度检验应用的注意事项【此为本人学习
吴恩达
的
深度学习课程
的笔记记录
Leon.ENV
·
2022-11-19 08:07
深度学习
深度学习
神经网络
交叉熵如何做损失函数?
“最大似然估计”为什么又叫“交叉熵”下面这个是
吴恩达
大佬在他的课程里面写出来的最大似然估计法的公式,\(y\)是标签值,\(\hat{y}\)是神经网络的估计值。
Kevin小鲨鱼
·
2022-11-19 08:02
机器学习
算法
人工智能
计算机视觉
深度学习
在Jupyter Notebook上安装octave内核
JupyterNotebook是非常好用的Web界面编程工具,看了
吴恩达
的机器学习后,更想在Jupyter下运行octave,下面是在Windows下的安装过程。
Scarletteocat
·
2022-11-19 07:19
毕业设计
jupyter
Python机器学习笔记(一):概述
这次会在三周内更新完Python机器学习的内容,再花三个月左右的时间另起blog,更新
吴恩达
机器学习课程笔记和深度学习基础部分。希望Flag不倒!注
陶晨毅
·
2022-11-19 07:07
Machine
Learning
深度学习整合资料
1.CS230深度学习
吴恩达
2.CS229机器学习
吴恩达
3.CS231n讲计算机视觉的,涉及比较多的深度学习,也适合入门https://cs231n.github.io/课件网站
weixin_50810484
·
2022-11-19 06:37
笔记
COURSERA-
吴恩达
机器学习 Machine Learning by Andrew NG
COURSERA-MachineLearningbyAndrewNGHerearemyon-goingstudynotesfor“MachineLearningbyAndrewNG”onCoursera.Ididn’tpayforthecourseyet,cozthereisnostudy-freeschedulefor
吴恩达
机器学习课程
youknowwho3_3
·
2022-11-19 02:28
Coursera
machinelearning
机器学习
机器学习
【机器学习】
吴恩达
机器学习课程笔记LESSON1
目录一、前言二、课堂笔记三、总结一、前言为打牢机器学习基础,最近开始看
吴恩达
老师的视频。听课过程中的笔记、心得、疑惑特在此记录。
Rachel MuZy
·
2022-11-19 02:13
机器学习在态势感知的应用
机器学习
人工智能
学习方法
Logistic回归代价函数的梯度下降公式数学推导
Logistic回归代价函数的梯度下降公式推导过程Logistic回归代价函数梯度下降公式数学推导过程数学推导过程如下Logistic回归代价函数梯度下降公式数学推导过程因为最近在学习
吴恩达
的机器学习,
WhoAmI十二
·
2022-11-18 16:13
个人学习笔记
Logistic回归代价函数
用卷积神经网络(CNN)中的卷积核(过滤器)提取图像特征
这两天在听
吴恩达
讲解卷积神经网络的视频,对利用卷积层检测边缘特征也就是提取图像的特征有了一定的理解,并且通过查阅资料,用python实现了提取图像特征的过程,然后趁热打铁总结一下,话不多说,直接步入正题
NSSWTT
·
2022-11-18 11:07
深度学习
卷积
深度学习
【
吴恩达
机器学习 - 3】利用fmincg函数与正则化实现多元分类问题及神经网络初体验(课后练习第三题ex3)
目录1.多元分类1.1代价函数1.2求最优参数1.3分类预测2.神经网络照旧,本练习的相关资料链接将会扔到评论区,大家自取1.多元分类在上一节练习中已经完成了逻辑回归,也就是分类问题,实际上只是完成了二分类问题,而本节练习将会使用逻辑回归完成手写字体识别(多元分类)问题1.1代价函数该节练习的第一个内容就是完成多分类问题的代价函数,实际上,多分类问题的本质仍然是逻辑回归,因此该代价函数与上节练习所
Beeemo
·
2022-11-18 09:45
吴恩达机器学习
机器学习
神经网络
人工智能
Python3《机器学习实战》学习笔记(五):Logistic回归基础篇之梯度上升算法
二、Logistic回归链接:可以参照之前写过的文章(
吴恩达
机器学习课里面的)因为里面公式推导都是类似的,因此可以直接拿来用这个例子主要是主要用来模拟迭代的方式。就像爬坡一样,一点点的逼近极值''
Charliefive
·
2022-11-17 09:27
机器学习
机器学习
算法
cv算法工程师学习成长路线
计算机系统书籍1.2,设计模式教程二,编程语言2.1,C++学习资料2.2,Python学习资料三,数据结构与算法3.1,数据结构与算法课程3.2,算法题解四,机器学习4.1,机器学习课程五,深度学习5.1,
深度学习课程
嵌入式视觉
·
2022-11-17 07:00
计算机视觉
模型压缩与部署
深度学习
cv算法工程师
计算机视觉
深度学习
模型压缩与量化
模型部署
Tensorflow+Tutoria 关于
吴恩达
深度学习课后作业无法运行的解决方案
Tensorflow+Tutoria关于
吴恩达
深度学习课后作业无法运行的解决方案Welcometothisweek’sprogrammingassignment.Untilnow,you’vealwaysusednumpytobuildneuralnetworks.Nowwewillstepyouthroughadeeplearningframeworkthatwillallowyoutobuil
JUNCLING
·
2022-11-16 18:22
深度学习小问题解决过程
tensorflow
机器学习-
吴恩达
-笔记-4-神经网络描述
目录非线性假设神经元和大脑模型表示-1模型表示-2特征和直观理解-1特征和直观理解-2多类分类【此为本人学习
吴恩达
的机器学习课程的笔记记录,有错误请指出!】
Leon.ENV
·
2022-11-16 07:54
机器学习
机器学习
向毕业妥协系列之机器学习笔记:高级学习算法-神经网络(二)
目录一.用代码实现推理二.Tensorflow中数据形式三.搭建一个神经网络四.单个网络层上的前向传播五.前向传播的一般实现六.强人工智能七.矩阵乘法(选学)一.用代码实现推理
吴恩达
老师以烤咖啡豆为例,
深海鱼肝油ya
·
2022-11-16 07:51
#
机器学习
神经网络
Tensorflow
前向传播
矩阵乘法
Coursera-
吴恩达
机器学习课程个人笔记-Week7
支持向量机,SVM1.支持向量机(SVM,SupportVectorMachine)的数学表达1.1从逻辑回归过渡到SVM1.2SVM的损失函数1.3SVM的预测值2.SVM的理解3.SVM的推导3.1
吴恩达
课程的思路
lavendelion
·
2022-11-15 09:33
机器学习笔记
吴恩达
机器学习
笔记
李宏毅机器学习笔记2:Gradient Descent(附带详细的原理推导过程)
李宏毅老师的机器学习课程和
吴恩达
老师的机器学习课程都是都是ML和DL非常好的入门资料,在YouTube、网易云课堂、B站都能观看到相应的课程视频,接下来这一系列的博客我都将记录老师上课的笔记以及自己对这些知识内容的理解与补充
weixin_30629977
·
2022-11-15 08:52
人工智能
李宏毅机器学习笔记5:CNN卷积神经网络
李宏毅老师的机器学习课程和
吴恩达
老师的机器学习课程都是都是ML和DL非常好的入门资料,在YouTube、网易云课堂、B站都能观看到相应的课程视频,接下来这一系列的博客我都将记录老师上课的笔记以及自己对这些知识内容的理解与补充
weixin_30628077
·
2022-11-15 08:22
人工智能
吴恩达
机器学习 正则化 学习笔记
正则化解决/缓解过拟合问题首先,介绍几个概念“欠拟合”与“刚刚好”与“过拟合”“欠拟合”其实相对容易解决,通过不断地调参,总可以使拟合度逐渐提高而“过拟合”的问题则相对麻烦一些Q:什么情况会出现过拟合?A:当特征数过多时,方程阶数可能很高,导致曲线可能去尽力拟合每一个数据,导致曲线极度扭曲。可以说是“特化”过于严重。而我们机器学习是希望通过一些特化的训练集得到一个相对泛化的结果,能够去预测新的值,
In_the_wind_
·
2022-11-14 10:51
机器学习
机器学习
正则化
过拟合
吴恩达
ML
梯度下降算法--一元线性回归
前言:开始学习
吴恩达
教授的机器学习课程,记录并实现其中的算法。在实现过程中,还未理解如何准确的找到α这个值的取值。
七岁成熟时
·
2022-11-14 09:39
机器学习
算法
线性回归
机器学习
深度学习
吴恩达
作业题系列(1)
1、Python的基本操作_Numpy第一个程序:输出Helloworld!1.1建立运行numpy的基本函数1.1.1sigmoid函数与np.exp()x=[1,2,3]basic_sigmoid(x)运行就会出错,原因就是这里建立的是数组,而数组不能用于该模块里面的函数,需要将其转化为向量列表在numpy库里面的函数中运行才行,在该库的方法中,根据Python的广播机制,向量列表可以和常数一
身影王座
·
2022-11-14 09:44
深度学习吴恩达
python
神经网络
深度学习
吴恩达
numpy
二分类交叉熵损失函数python_【深度学习基础】第二课:softmax分类器和交叉熵损失函数...
【深度学习基础】系列博客为学习Coursera上
吴恩达
深度学习课程
所做的课程笔记。本文为原创文章,未经本人允许,禁止转载。转载请注明出处。
weixin_39650745
·
2022-11-13 11:11
梯度下降法--笔记
1.
吴恩达
老师课程的文档版https://www.cnblogs.com/ooon/p/4947688.html2.https://www.jianshu.com/p/c7e642877b0e梯度下降法的思想可类比于
zoe9698
·
2022-11-12 17:12
机器学习笔记
机器学习
梯度下降
数据分析
吴恩达
深度学习笔记(五)——优化算法
一、mini_batch梯度下降法如果使用batch梯度下降法,mini-batch的大小为m,每个迭代需要处理大量的训练样本,弊端在于巡林样本巨大的时候,单次迭代耗时过长。如果使用随机梯度下降法(mini-batch为1),只处理一个样本,通过减小学习率,噪声得到改善或者减小。缺点是失去向量化带来的加速,效率低下。且永远不会收敛,会一直在最小值附近波动,并不会达到最小值并停留在此。所以实践中,通
子非鱼icon
·
2022-11-12 17:41
深度学习自学笔记
算法
机器学习
深度学习
优化算法
吴恩达
Mini batch梯度下降法(
吴恩达
深度学习视频笔记)
深度学习并没有在大数据中表现很好,但是我们可以利用一个巨大的数据集来训练神经网络,而在巨大的数据集基础上进行训练速度很慢,因此进行优化算法能够很大程度地增加训练速度,提升效率。本节,我们将谈谈Minibatch梯度下降法。之前的学习中,我们已经了解到向量化能够实现对m个样本有效计算,不用明确的公式就能够处理整个训练集,所以,我们要把数据集放在一个巨大的矩阵X中,X=[x(1)x(2)x(3)…x(
lucky公主
·
2022-11-12 17:11
算法
深度学习
吴恩达
神经网络和深度学习-学习笔记-9-mini-batch梯度下降法
mini-batch梯度下降法mini-batch梯度下降法的介绍但是当m是一个很大的数(比如500W),在对整个训练集执行梯度下降算法的时候,我们必须处理整个数据集,才能进行下一步梯度下降算法。然后我们需要重新处理500W个训练样本,才能进行下一步梯度下降算法。所以如果你在处理完整个500W个训练样本之前,先让梯度下降算法处理一部分,你的算法速度会更快。Inparticular,hereiswh
Harry嗷
·
2022-11-12 17:37
吴恩达
深度学习课程
笔记
目录通用符号总结激活函数sigmoid1、Logistic回归2、梯度下降法3、Logistic回归的梯度下降算法3.1假设只有一个训练样本(x,y)(x,y)(x,y)3.2假设有m个训练样本:3.3向量化3.4广播4、神经网络5、激活函数5.1常用激活函数5.2经验5.3为什么要用激活函数6、神经网络的梯度下降法参数:costfunction:正向传播:反向传播:随机初始化7、深层神经网络7.
静仔是个免费的小精灵
·
2022-11-12 17:36
深度学习
吴恩达
深度学习课程
笔记——梯度下降算法和向量化
梯度下降算法和向量化逻辑回归中的梯度下降单样本梯度下降向量化多样本梯度下降逻辑回归中的梯度下降梯度下降法的作用是:在测试集上,通过最小化代价函数J(w,b)J(w,b)J(w,b)来训练的参数www和bbb。w:=w−a∂J(w,b)∂ww:=w-a\frac{\partialJ(w,b)}{\partialw}w:=w−a∂w∂J(w,b)b:=w−a∂J(w,b)∂bb:=w-a\frac{\
阿姝姝姝姝姝
·
2022-11-12 17:34
#
week2神经网络编程基础
算法
深度学习
机器学习
吴恩达
深度学习笔记(39)-更进一步理解mini-batch梯度下降法
理解mini-batch梯度下降法(Understandingmini-batchgradientdescent)在上一个笔记中,你知道了如何利用mini-batch梯度下降法来开始处理训练集和开始梯度下降,即使你只处理了部分训练集,即使你是第一次处理,本笔记中,我们将进一步学习如何执行梯度下降法,更好地理解其作用和原理。使用batch梯度下降法时,每次迭代你都需要历遍整个训练集,可以预期每次迭代
极客Array
·
2022-11-12 17:01
深度学习
吴恩达深度学习笔记
minibatch
吴恩达
深度学习
吴恩达
深度学习笔记-优化算法(第5课)
优化算法一、Mini-batch梯度下降算法二、理解mini-batch梯度下降法三、指数加权平均四、理解指数加权平均五、指数加权平均值的偏正修差六、动量梯度下降法(gradientwithmomentum)七、RMSprop(rootmeansquareprop)八、Adam优化算法九、学习率衰减十、局部最优的问题一、Mini-batch梯度下降算法当X是一个数量很大的数据集,例如m=50000
快乐活在当下
·
2022-11-12 17:30
吴恩达深度学习
深度学习
算法
人工智能
梯度下降法 ---
吴恩达
深度学习笔记
损失函数是衡量单一训练样例的效果。代价函数用于衡量参数w和b的效果,在全部训练集上来衡量。如何使用梯度下降法来训练或者学习训练集上的参数w和b?回顾逻辑回归算法损失函数y^=σ(wTx+b),σ(z)=11+e−z,z=wTx+b\widehat{y}=σ(w^{T}x+b),\sigma(z)=\frac1{1+e^{-z}},z=w^{T}x+by=σ(wTx+b),σ(z)=1+e−z1,z
奕星星奕
·
2022-11-12 17:29
图像处理
算法
python
第九周周报
学习目标:ViTGAN代码
吴恩达
深度学习学习内容:GANDCGANViTGANNLP学习时间:10.31-11.4学习产出:一、GAN了解了GAN的网络结构并编写代码'''数据准备'''transform
童、一
·
2022-11-12 11:49
周报
深度学习
神经网络
自然语言处理
第七周周报
学习目标:论文StyleSwin简单了解SwinTransfrmer和StyleGAN
吴恩达
深度学习视频学习内容:具体了解StyleSwin的代码和结构了解SwinTransformer的结构及ShiftedWindow
童、一
·
2022-11-12 11:49
周报
计算机视觉
人工智能
深度学习
上一页
37
38
39
40
41
42
43
44
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他