E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达-Coursera-ML
Coursera
吴恩达
课堂笔记 1.2《神经网络与深度学习》-- 神经网络基础之逻辑回归
文章目录1.BinaryClassification2.LogisticRegression3.LogisticRegressionCostFunction4.GradientDescent5.Derivatives6.MoreDerivativeExamples7.Computationgraph8.DerivativeswithaComputationGraph9.LogisticRegres
jianming21
·
2022-11-19 21:56
深度学习
深度学习
神经网络
吴恩达
《深度学习专项》笔记+代码实战(五):深度学习的实践层面(数据集划分、偏差与方差、参数初始化、正则化)
学习提示第二门课的知识点比较分散,开始展示每周的笔记之前,我会先梳理一下每周涉及的知识。这一周会先介绍改进机器学习模型的基本方法。为了介绍这项知识,我们会学习两个新的概念:数据集的划分、偏差与方差问题。知道这两个概念后,我们就能够诊断当前机器学习模型存在的问题,进而找出改进的方法。之后,我们会针对“高方差问题”,学习一系列解决此问题的方法。这些方法成为“正则化方法”。这周介绍的正则化方法有:添加正
大局观选手周弈帆
·
2022-11-19 21:54
吴恩达深度学习
深度学习
人工智能
吴恩达
《深度学习专项》笔记(九):错误分析、数据集匹配、多任务学习、端到端学习
学习提示这周要学习四项内容:错误分析、使用不匹配的数据、完成多个任务的学习、端到端学习。其中,前两项内容是对上一周内容的扩展。学完这些知识后,我们能更好地决定下一步的改进计划。通过处理分布不匹配的数据,我们能够学会如何诊断一种新的问题:数据不匹配问题。之后,我们使用错误分析技术,找到模型具体的错误样例,进一步改进模型。后两项内容分别是两项深度学习的应用技巧。我们会学习迁移学习、多任务学习这两种处理
大局观选手周弈帆
·
2022-11-19 21:54
吴恩达深度学习
深度学习
学习
python
深度学习-计算机视觉-0基础-学习历程
吴恩达
《深度学习》-----------------------
吴恩达
的课程讲的很基础,但
黑檀木与雪松
·
2022-11-19 20:18
深度学习-计算机视觉
深度学习
学习
python
cnn
经典卷积神经网络模型
内容来自BiliBili-同济子豪兄:经典卷积神经网络结构案例分析_哔哩哔哩_bilibili目录1.AlexNet
吴恩达
手绘图:2.ZFNet3.VGG4.GooLeNet5.ResNet编辑6.SENet7
黑檀木与雪松
·
2022-11-19 19:37
深度学习-计算机视觉
cnn
人工智能
神经网络
吴恩达
深度学习课程
神经网络深度学习是指训练神经网络,size--○--prise,圆圈为一个神经单元。它做的就是函数的主要功能。常见的“修正线性单元”即为ReLU。把独立的单元叠加起来,就有了一张较大的神经网络。1.2监督学习对于图像中常用卷积神经网络(CNN)对于序列数据常用循环神经网络(RNN)语言也是序列数据但是是单个出现,用(RNNs)雷达等要用更复杂的,混合神经网络结构结构化数据是数据的数据库非结构化数据
weixin_70459895
·
2022-11-19 19:32
深度学习
吴恩达
深度学习笔记——神经网络与深度学习(Neural Networks and Deep Learning)
文章目录前言传送门神经网络与深度学习(NeuralNetworksandDeepLearning)绪论梯度下降法与二分逻辑回归(GradientDescendandLogisticsRegression)forwardpropagationbackwardpropagation(withChainRule)vectorization损失函数和成本函数推导(LossFunction|CostFunc
亦梦亦醒乐逍遥
·
2022-11-19 19:30
个人随笔/学习笔记
深度学习
神经网络
机器学习
吴恩达
深度学习笔记——改善深层神经网络:超参数调整,正则化,最优化(Hyperparameter Tuning)
深度学习笔记导航前言传送门改善深层神经网络:超参数调整,正则化,最优化(ImprovingDeepNeuralNetworks:HyperparameterTuning,Regularization,andOptimization)深度学习实践(PracticalAspectsofDeepLearning)基础数据集分割偏差/方差(bias/variance)基本分析方法正则化(regulariz
亦梦亦醒乐逍遥
·
2022-11-19 19:00
个人随笔/学习笔记
深度学习
神经网络
机器学习
吴恩达
深度学习深度学习概述以及优化
、深层神经网络4、深度学习实用层面4.1训练集、验证集、测试集4.2偏差、方差4.3L1、L2正则化4.4归一化处理4.5Dropout4.6其他正则化方法4.7梯度消失和爆炸1、深度学习概述在之前的
吴恩达
机器学习课程中
不自知的天才
·
2022-11-19 19:29
神经网络
深度学习笔记-
吴恩达
深度学习-
吴恩达
文章目录深度学习-
吴恩达
前言一、神经网络1.随机初始化2.深层神经网络的前向传播3.核对矩阵的维数4.为什么使用深层表示5.搭建深层神经网络块6.前向传播与反向传播7.参数与超参数前言随着人工智能的不断发展
Mr. 嘿
·
2022-11-19 19:59
深度学习
吴恩达
老师的机器学习与深度学习贴
吴恩达
老师的机器学习与深度学习贴机器学习第一周:首先,老师举例说明,机器学习的几个显示生活中的例子:包括无人机的实验运行,垃圾邮件的识别,软件APP的内容推广,甚至谷歌新闻的同一类型的内容分块等等。
weixin_41840630
·
2022-11-19 19:58
机器学习
深度学习
吴恩达
《机器学习》学习笔记(一)
目录一、机器学习什么是神经网络?为什么要引入ReLU?监督学习supervisedlearning为什么深度学习会兴起?二、Logisticregression二分类逻辑回归模型代价函数costfunction为什么需要代价函数?损失函数lossfunction梯度下降gradientdecent计算图向量化numpy广播机制一、机器学习什么是神经网络?神经网络类似一个函数y=f(x),神经网络可
梦想的小鱼
·
2022-11-19 19:56
机器学习
机器学习
深度学习
人工智能
吴恩达
深度学习教程参考链接
暑假无事,几周时间匆匆过了一下
吴恩达
老师的深度学习教程前四章的内容,对于
吴恩达
老师的敬仰之情又多了一分,至于序列模型也只能开学之后在看了。还要感谢黄博士团队的翻译成的中文笔记,让我受益匪浅。
晓风wangchao
·
2022-11-19 19:19
课程学习
人工智能
深度学习
机器学习/深度学习入门建议
深度学习入门建议第一阶段:Python基础视频:(选一个喜欢的就行)第二阶段:常用模块numpymatplotlibpandas书籍的话推荐看看《利用Python进行数据分析》第三阶段:机器学习基础建议观看
吴恩达
老师的课程
程序猿-饭饭
·
2022-11-19 19:16
python
人工智能
深度学习
逻辑回归
吴恩达
深度学习入门
1.视频网站:mooc慕课https://mooc.study.163.com/university/deeplearning_ai#/c2.详细笔记网站(中文):http://www.ai-start.com/dl2017/3.github课件+作业+答案:https://github.com/stormstone/deeplearning.ai
费马定理
·
2022-11-19 19:10
深度学习
吴恩达
《深度学习》笔记+代码实战(一):深度学习入门
最近在学
吴恩达
的《深度学习专项》(DeepLearningSpecialization)。为了让学习更有效率(顺便有一些博文上的产出),我准备写一些学习笔记。
大局观选手周弈帆
·
2022-11-19 19:09
吴恩达深度学习
python
深度学习
人工智能
吴恩达
深度学习笔记整理(五)
目录优化算法Mini-batch梯度下降理解mini-batch梯度下降法怎么选择适合的batchsize?指数加权平均数理解指数加权平均数公式:指数加权平均的偏差修正动量梯度下降法RMSpropAdam优化算法学习率衰减为什么衰减?局部最优局部最优解鞍点优化算法Mini-batch梯度下降深度学习的优势是可以利用一个巨大的数据集来训练神经网络,而在巨大的数据集基础上进行训练速度很慢。这时,我们可
梦想的小鱼
·
2022-11-19 18:32
机器学习
人工智能
深度学习
神经网络
什么是神经网络?
监督学习与深度学习神经网络的分类数据类型StructureddataUnstructureddata数据到底怎样传入到神经网络的呢 笔记来源于:床长人工智能教程
吴恩达
深度学习deeplearning.ai
樊鴻燁
·
2022-11-19 18:50
#
深度学习
神经网络
python
神经网络是如何进行预测的?
笔记来源于:床长人工智能教程
吴恩达
深度学习deeplearning.ai 上一篇文章,我们初步了解到了神经网络的原来,神经网络是怎么一回事儿,神经网络的分类以及数据是以何种形式传入神经网络,下面我们来介绍神经网络其他背后的逻辑
樊鴻燁
·
2022-11-19 18:49
#
深度学习
神经网络
深度学习
人工智能
【深度学习
吴恩达
】神经网络和深度学习--第二周课后测验及编程作业
测验题5.Considerthetwofollowingrandomarrays“a”and“b”:(看一下下面的这两个随机数组“a”和“b”)a=np.random.randn(4,3)#a.shape=(4,3)b=np.random.randn(3,2)#b.shape=(3,2)c=a*bWhatwillbetheshapeof“c”?(请问数组“c”的维度是多少?)Answer:Thec
早知晓
·
2022-11-19 14:56
深度学习
神经网络
python
机器学习笔记(第一周课程)
上一篇是python的学习笔记,因为自己太放松,就没怎么更新下去,现在是做一篇机器学习笔记,学习的视频是
吴恩达
老师讲的2022的机器学习,这篇文章记录一下课程中第一课第一周的学习内容,以及相关的练习题的训练
chunqiuchan
·
2022-11-19 14:22
python
人工智能
吴恩达
《深度学习专项》第一阶段总结与第二阶段预览
经过前四周的学习,我们已经学完了《深度学习专项》的第一门课程《神经网络与深度学习》。让我们总结一下这几周学的知识,查缺补漏。《神经网络与深度学习》知识回顾概览在有监督统计机器学习中,我们会得到一个训练集。训练集中的每一条训练样本由输入和输出组成。我们希望构建一个数学模型,使得该模型在学习了训练集中的规律后,能够建立起输入到输出的映射。在深度学习中,使用的数学模型是深度神经网络。神经网络一般可以由如
大局观选手周弈帆
·
2022-11-19 14:45
吴恩达深度学习
深度学习
神经网络
机器学习
吴恩达
-机器学习课后题06-SVM(支持向量机)1-线性可分
1、概念1、支持向量机:支持向量机(supportvectormachines,SVM)是一种二分类模型,它的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机;SVM还包括核技巧,这使它成为实质上的非线性分类器。SVM的的学习策略就是间隔最大化,可形式化为一个求解凸二次规划的问题,也等价于正则化的合页损失函数的最小化问题。SVM的的学习算法就是求解凸二次规划的最优化算法。
NULL326
·
2022-11-19 12:35
机器学习-NG-Test
吴恩达
机器学习作业5:偏差和方差(Python实现)
机器学习练习5-RegularizedLinearRegressionandBiasv.s.VarianceIntroduction在本练习中,将实现正则化线性回归,并使用它来研究具有不同偏差-方差的模型。1RegularizedLinearRegression(正则线性回归)在练习的前半部分,将实现正则化的线性回归,利用水库水位的变化来预测从大坝流出的水量。在后半部分,将通过调试学习算法的参数,
Phoenix_ZengHao
·
2022-11-19 11:59
机器学习
python
机器学习
人工智能
sklearn
“损失函数”是如何设计出来的?直观理解“最小二乘法”和“极大似然估计法”
就像是网上非常火的,
吴恩达
讲深度学习的课程里面,他就提到了两个损失函数。也就是红框里的那两个函数。
王木头学科学
·
2022-11-19 09:28
深度学习
神经网络
机器学习
人工智能
深度学习-
吴恩达
-笔记-5-深度学习的实践层面
方差机器学习基础正则化为什么正则化有利于预防过拟合dropout正则化理解dropout其它正则化方法归一化输入梯度消失/梯度爆炸神经网络的权重初始化梯度的数值逼近梯度检验梯度检验应用的注意事项【此为本人学习
吴恩达
的深度学习课程的笔记记录
Leon.ENV
·
2022-11-19 08:07
深度学习
深度学习
神经网络
交叉熵如何做损失函数?
“最大似然估计”为什么又叫“交叉熵”下面这个是
吴恩达
大佬在他的课程里面写出来的最大似然估计法的公式,\(y\)是标签值,\(\hat{y}\)是神经网络的估计值。
Kevin小鲨鱼
·
2022-11-19 08:02
机器学习
算法
人工智能
计算机视觉
深度学习
在Jupyter Notebook上安装octave内核
JupyterNotebook是非常好用的Web界面编程工具,看了
吴恩达
的机器学习后,更想在Jupyter下运行octave,下面是在Windows下的安装过程。
Scarletteocat
·
2022-11-19 07:19
毕业设计
jupyter
Python机器学习笔记(一):概述
这次会在三周内更新完Python机器学习的内容,再花三个月左右的时间另起blog,更新
吴恩达
机器学习课程笔记和深度学习基础部分。希望Flag不倒!注
陶晨毅
·
2022-11-19 07:07
Machine
Learning
深度学习整合资料
1.CS230深度学习
吴恩达
2.CS229机器学习
吴恩达
3.CS231n讲计算机视觉的,涉及比较多的深度学习,也适合入门https://cs231n.github.io/课件网站
weixin_50810484
·
2022-11-19 06:37
笔记
COURSERA-
吴恩达
机器学习 Machine Learning by Andrew NG
COURSERA-MachineLearningbyAndrewNGHerearemyon-goingstudynotesfor“MachineLearningbyAndrewNG”onCoursera.Ididn’tpayforthecourseyet,cozthereisnostudy-freeschedulefor
吴恩达
机器学习课程
youknowwho3_3
·
2022-11-19 02:28
Coursera
machinelearning
机器学习
机器学习
【机器学习】
吴恩达
机器学习课程笔记LESSON1
目录一、前言二、课堂笔记三、总结一、前言为打牢机器学习基础,最近开始看
吴恩达
老师的视频。听课过程中的笔记、心得、疑惑特在此记录。
Rachel MuZy
·
2022-11-19 02:13
机器学习在态势感知的应用
机器学习
人工智能
学习方法
Logistic回归代价函数的梯度下降公式数学推导
Logistic回归代价函数的梯度下降公式推导过程Logistic回归代价函数梯度下降公式数学推导过程数学推导过程如下Logistic回归代价函数梯度下降公式数学推导过程因为最近在学习
吴恩达
的机器学习,
WhoAmI十二
·
2022-11-18 16:13
个人学习笔记
Logistic回归代价函数
用卷积神经网络(CNN)中的卷积核(过滤器)提取图像特征
这两天在听
吴恩达
讲解卷积神经网络的视频,对利用卷积层检测边缘特征也就是提取图像的特征有了一定的理解,并且通过查阅资料,用python实现了提取图像特征的过程,然后趁热打铁总结一下,话不多说,直接步入正题
NSSWTT
·
2022-11-18 11:07
深度学习
卷积
深度学习
【
吴恩达
机器学习 - 3】利用fmincg函数与正则化实现多元分类问题及神经网络初体验(课后练习第三题ex3)
目录1.多元分类1.1代价函数1.2求最优参数1.3分类预测2.神经网络照旧,本练习的相关资料链接将会扔到评论区,大家自取1.多元分类在上一节练习中已经完成了逻辑回归,也就是分类问题,实际上只是完成了二分类问题,而本节练习将会使用逻辑回归完成手写字体识别(多元分类)问题1.1代价函数该节练习的第一个内容就是完成多分类问题的代价函数,实际上,多分类问题的本质仍然是逻辑回归,因此该代价函数与上节练习所
Beeemo
·
2022-11-18 09:45
吴恩达机器学习
机器学习
神经网络
人工智能
Python3《机器学习实战》学习笔记(五):Logistic回归基础篇之梯度上升算法
二、Logistic回归链接:可以参照之前写过的文章(
吴恩达
机器学习课里面的)因为里面公式推导都是类似的,因此可以直接拿来用这个例子主要是主要用来模拟迭代的方式。就像爬坡一样,一点点的逼近极值''
Charliefive
·
2022-11-17 09:27
机器学习
机器学习
算法
Tensorflow+Tutoria 关于
吴恩达
深度学习课后作业无法运行的解决方案
Tensorflow+Tutoria关于
吴恩达
深度学习课后作业无法运行的解决方案Welcometothisweek’sprogrammingassignment.Untilnow,you’vealwaysusednumpytobuildneuralnetworks.Nowwewillstepyouthroughadeeplearningframeworkthatwillallowyoutobuil
JUNCLING
·
2022-11-16 18:22
深度学习小问题解决过程
tensorflow
机器学习-
吴恩达
-笔记-4-神经网络描述
目录非线性假设神经元和大脑模型表示-1模型表示-2特征和直观理解-1特征和直观理解-2多类分类【此为本人学习
吴恩达
的机器学习课程的笔记记录,有错误请指出!】
Leon.ENV
·
2022-11-16 07:54
机器学习
机器学习
向毕业妥协系列之机器学习笔记:高级学习算法-神经网络(二)
目录一.用代码实现推理二.Tensorflow中数据形式三.搭建一个神经网络四.单个网络层上的前向传播五.前向传播的一般实现六.强人工智能七.矩阵乘法(选学)一.用代码实现推理
吴恩达
老师以烤咖啡豆为例,
深海鱼肝油ya
·
2022-11-16 07:51
#
机器学习
神经网络
Tensorflow
前向传播
矩阵乘法
Coursera-
吴恩达
机器学习课程个人笔记-Week7
支持向量机,SVM1.支持向量机(SVM,SupportVectorMachine)的数学表达1.1从逻辑回归过渡到SVM1.2SVM的损失函数1.3SVM的预测值2.SVM的理解3.SVM的推导3.1
吴恩达
课程的思路
lavendelion
·
2022-11-15 09:33
机器学习笔记
吴恩达
机器学习
笔记
李宏毅机器学习笔记2:Gradient Descent(附带详细的原理推导过程)
李宏毅老师的机器学习课程和
吴恩达
老师的机器学习课程都是都是ML和DL非常好的入门资料,在YouTube、网易云课堂、B站都能观看到相应的课程视频,接下来这一系列的博客我都将记录老师上课的笔记以及自己对这些知识内容的理解与补充
weixin_30629977
·
2022-11-15 08:52
人工智能
李宏毅机器学习笔记5:CNN卷积神经网络
李宏毅老师的机器学习课程和
吴恩达
老师的机器学习课程都是都是ML和DL非常好的入门资料,在YouTube、网易云课堂、B站都能观看到相应的课程视频,接下来这一系列的博客我都将记录老师上课的笔记以及自己对这些知识内容的理解与补充
weixin_30628077
·
2022-11-15 08:22
人工智能
吴恩达
机器学习 正则化 学习笔记
正则化解决/缓解过拟合问题首先,介绍几个概念“欠拟合”与“刚刚好”与“过拟合”“欠拟合”其实相对容易解决,通过不断地调参,总可以使拟合度逐渐提高而“过拟合”的问题则相对麻烦一些Q:什么情况会出现过拟合?A:当特征数过多时,方程阶数可能很高,导致曲线可能去尽力拟合每一个数据,导致曲线极度扭曲。可以说是“特化”过于严重。而我们机器学习是希望通过一些特化的训练集得到一个相对泛化的结果,能够去预测新的值,
In_the_wind_
·
2022-11-14 10:51
机器学习
机器学习
正则化
过拟合
吴恩达
ML
梯度下降算法--一元线性回归
前言:开始学习
吴恩达
教授的机器学习课程,记录并实现其中的算法。在实现过程中,还未理解如何准确的找到α这个值的取值。
七岁成熟时
·
2022-11-14 09:39
机器学习
算法
线性回归
机器学习
深度学习
吴恩达
作业题系列(1)
1、Python的基本操作_Numpy第一个程序:输出Helloworld!1.1建立运行numpy的基本函数1.1.1sigmoid函数与np.exp()x=[1,2,3]basic_sigmoid(x)运行就会出错,原因就是这里建立的是数组,而数组不能用于该模块里面的函数,需要将其转化为向量列表在numpy库里面的函数中运行才行,在该库的方法中,根据Python的广播机制,向量列表可以和常数一
身影王座
·
2022-11-14 09:44
深度学习吴恩达
python
神经网络
深度学习
吴恩达
numpy
二分类交叉熵损失函数python_【深度学习基础】第二课:softmax分类器和交叉熵损失函数...
【深度学习基础】系列博客为学习Coursera上
吴恩达
深度学习课程所做的课程笔记。本文为原创文章,未经本人允许,禁止转载。转载请注明出处。
weixin_39650745
·
2022-11-13 11:11
梯度下降法--笔记
1.
吴恩达
老师课程的文档版https://www.cnblogs.com/ooon/p/4947688.html2.https://www.jianshu.com/p/c7e642877b0e梯度下降法的思想可类比于
zoe9698
·
2022-11-12 17:12
机器学习笔记
机器学习
梯度下降
数据分析
吴恩达
深度学习笔记(五)——优化算法
一、mini_batch梯度下降法如果使用batch梯度下降法,mini-batch的大小为m,每个迭代需要处理大量的训练样本,弊端在于巡林样本巨大的时候,单次迭代耗时过长。如果使用随机梯度下降法(mini-batch为1),只处理一个样本,通过减小学习率,噪声得到改善或者减小。缺点是失去向量化带来的加速,效率低下。且永远不会收敛,会一直在最小值附近波动,并不会达到最小值并停留在此。所以实践中,通
子非鱼icon
·
2022-11-12 17:41
深度学习自学笔记
算法
机器学习
深度学习
优化算法
吴恩达
Mini batch梯度下降法(
吴恩达
深度学习视频笔记)
深度学习并没有在大数据中表现很好,但是我们可以利用一个巨大的数据集来训练神经网络,而在巨大的数据集基础上进行训练速度很慢,因此进行优化算法能够很大程度地增加训练速度,提升效率。本节,我们将谈谈Minibatch梯度下降法。之前的学习中,我们已经了解到向量化能够实现对m个样本有效计算,不用明确的公式就能够处理整个训练集,所以,我们要把数据集放在一个巨大的矩阵X中,X=[x(1)x(2)x(3)…x(
lucky公主
·
2022-11-12 17:11
算法
深度学习
吴恩达
神经网络和深度学习-学习笔记-9-mini-batch梯度下降法
mini-batch梯度下降法mini-batch梯度下降法的介绍但是当m是一个很大的数(比如500W),在对整个训练集执行梯度下降算法的时候,我们必须处理整个数据集,才能进行下一步梯度下降算法。然后我们需要重新处理500W个训练样本,才能进行下一步梯度下降算法。所以如果你在处理完整个500W个训练样本之前,先让梯度下降算法处理一部分,你的算法速度会更快。Inparticular,hereiswh
Harry嗷
·
2022-11-12 17:37
上一页
34
35
36
37
38
39
40
41
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他