E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达-Coursera
吴恩达
机器学习笔记week1——初识机器学习
吴恩达
机器学习笔记week1——初识机器学习1-1.欢迎参加《机器学习》课程1-2.什么是机器学习?
Saulty
·
2022-12-19 10:55
机器学习
吴恩达
深度学习 2.3 改善深层神经网络-超参数调试和Batch Norm
1.知识点超参数的选择有一些超参数,在一个范围内进行均匀随机取值,比如神经网络层数、神经元个数。有一些超参数,需要在更小的范围内随机取值,比如,学习率需要在0.001至0.01间进行均匀随机取值。神经网络中激活值的归一化BatchNorm由激活输入z计算期望、方差。用期望和方差标准化z,。平移,。在神经网络中使用BatchNormBatchNorm梯度下降:也是模型参数,需要和w、b一样用梯度更新
垚焱焱
·
2022-12-19 09:58
深度学习
吴恩达
深度学习笔记 course2 week3 超参数调试,Batch Norm,和程序框架
1.TuningProcess对超参数的一个调试处理一般而言,在调试超参数的过程中,我们通常将学习率learning_rate看作是最重要的一个超参数,其次是动量梯度下降因子β(一般为0.9),隐藏层单元个数,mini-batchsize,再然后是layers,learningratedecacy.当然,这并不是绝对的.在adam算法中,β1,β2,ε通常取值为0.9,0.999,10-8调试超参
weixin_30872733
·
2022-12-19 09:57
人工智能
吴恩达
深度学习第二课第三周作业及学习心得体会 ——softmax、batchnorm
写在前面本周课程用了两周完成,因为课程让用tensorflow实现,编码时还是更希望自己手写代码实现,而在实现过程中,低估了batchnorm反向计算的难度,导致算法出现各种bug,开始是维度上的bug导致代码无法运行,等代码可以运行时,训练神经网络的时候成本又总会发散,于是静下心来把整个运算的前向和反向过程认真推导了好几遍,期间参考网上一些资料,但感觉都没有把问题真正说清楚,连续三天的推导后,才
袁野_0073
·
2022-12-19 09:57
深度学习
吴恩达
softmax
batchnorm
吴恩达
week6 ~批量梯度下降 指数加权平均 动量梯度下降 学习率衰减 Adam
文章目录前言一、小批量梯度下降mini-batch1、batchgradientdescent2、stochasticgradientdescent3、mini-batchgradientdescent二、指数加权平均1.什么是指数加权平均2、理解指数加权平均3、与普通求平均值的区别4、指数加权平均的偏差修正三、gradientdescentwithmomentum四、RMSprop五、适应性矩估
爱吃肉c
·
2022-12-19 09:56
深度学习吴恩达
人工智能
深度学习
吴恩达
深度学习课程翻译
第一门课神经网络和深度学习(NeuralNetworksandDeepLearning)第一周:深度学习引言(IntroductiontoDeepLearning)1.1欢迎(Welcome)11.2什么是神经网络?(WhatisaNeuralNetwork)1.3神经网络的监督学习(SupervisedLearningwithNeuralNetworks)1.4为什么神经网络会流行?(Whyis
青竹aaa
·
2022-12-19 09:55
深度学习
人工智能
深度学习
深度学习-
吴恩达
-笔记-7-超参数调试、Batch正则化和程序框架
测试时的BatchNormSoftmax回归(Softmaxregression)训练一个Softmax分类器深度学习框架TensorFlow【此为本人学习
吴恩达
的深度学习课程的笔记记录,有错误请指出!
Leon.ENV
·
2022-12-19 09:24
深度学习
深度学习
神经网络
吴恩达
深度学习笔记7-Course2-Week3【超参数调试、Batch 正则化和程序框架】
超参数调试、Batch正则化和程序框架一、超参数调试(hyperparametertuning)推荐的超参数重要性排序:1、学习率(learningrate):α2、隐藏神经单元(hiddenunits);mini-batch的大小(mini-batchsize);β(momentum)3、神经网络层数(layers);学习率衰减率(learningratedecay)4、Adam优化算法的其它超
Wang_Jiankun
·
2022-12-19 09:53
吴恩达深度学习
吴恩达深度学习笔记
深度学习
神经网络
吴恩达
吴恩达
《深度学习专项》笔记(七):调参、批归一化、多分类任务、编程框架
学习提示这周的知识点也十分分散,主要包含四项内容:调参、批归一化、多分类任务、编程框架。通过在之前的编程项目里调整学习率,我们能够体会到超参数对模型效果的重要影响。实际上,选择超参数不是一个撞运气的过程。我们应该有一套系统的方法来快速找到合适的超参数。两周前,我们学习了输入归一化。类似地,如果对网络的每一层都使用归一化,也能提升网络的整体表现。这样一种常用的归一化方法叫做批归一化。之前,我们一直都
大局观选手周弈帆
·
2022-12-19 09:23
吴恩达深度学习
深度学习
分类
算法
week 7
吴恩达
调参 ,batch norm,softmax
文章目录前言7.1调整参数的过程Turingprogress7.2、scale7.3如果在实践中探寻超参数7.4batchnormalization批量归一化7.5将BN算法拟合到神经网络中7.6为什么BN有效?7.7测试时的BN7.87.9softmaxregression7.10深度学习的框架前言7.1调整参数的过程Turingprogress对于维度小,数据少的数据,我们可以采取普通的网格搜
爱吃肉c
·
2022-12-19 09:52
深度学习吴恩达
batch
python
深度学习
机器学习——
吴恩达
机器学习——
吴恩达
inductionSupervisedlearningUnsupervisedlearningmodelexamplehowtoworkdefinecostfunctiongradientdescentforminimizingthecostfunctionGradientdescentforlinearregressionMatrixandVector
静妮子i
·
2022-12-18 15:43
吴恩达系列课程
机器学习
吴恩达
课程总结(一)
文章目录1.第一章简介1.1机器学习(MachineLearning)1.2有监督学习(SupervisedLearning)1.3无监督学习(UnsupervisedLearning)2.第二章线性回归(LinearRegression)2.1假设函数(hypothesis)2.2代价函数(costfunction)2.3简化(Simplified)2.4重新加入θ0{\theta_0}θ0分析
zqwlearning
·
2022-12-18 15:40
机器学习
机器学习
机器学习(
吴恩达
)
我们在上一章已经定义了可视化函数J,我们所要找的目标就是让可视化函数J达到最小值,那么我们要用什么样的方法呢这里我们采用梯度下降法,这是一种常见的算法,他不仅仅可以用在线性回归上,还可以用在其他函数上。1.赋予初始值(一般是0,0)2.不停改变使J变小,搜寻下降速度最快的方向3.直到我们找到最小值的局部收敛点,当然不一样的初始值他的局部收敛点也不一样。这里的被成为一个学习率的数字,它用来控制梯度下
Mr529302
·
2022-12-18 15:09
人工智能
算法
[Machinie Learning]
吴恩达
机器学习课程笔记——Week5
MachineLearningbyAndrewNg
吴恩达
机器学习课程学习笔记——Week5本人学习笔记汇总合订本✓课程网址standfordmachinelearning参考资源课程笔记python版作业学习提纲
Carsick Car
·
2022-12-18 14:36
Machine
Learning
人工智能
python
机器学习(
吴恩达
)
定义:计算机程序从经验E中学习,解决某一任务T,进行某一性能度量P,通过P测定在T上的表现因经验E而提高,以跳棋游戏为例,经验E就是程序与自己下几万次跳棋,任务T就是玩跳棋,性能度量P就是与新对手玩跳棋时赢的概率。目前有各种不同类型的学习算法,主流的是监督学习和无监督学习。监督学习就是个我们会教计算机做某件事情,无监督学习就是我们让计算机自己学习。监督学习:我们给算法一个数据集,其中包含了正确答案
Mr529302
·
2022-12-18 14:35
人工智能
算法
深度学习精炼图笔记
吴恩达
在推特上展示了一份由TessFerrandez完成的深度学习专项课程信息图,这套信息图优美地记录了深度学习课程的知识与亮点。
可基大萌萌哒的马鹿
·
2022-12-18 09:39
pytorch
深度学习
人工智能
22张深度学习精炼图笔记总结
吴恩达
在推特上展示了一份由TessFerrandez完成的深度学习专项课程信息图,这套信息图优美地记录了深度学习课程的知识与亮点。
Evan-yzh
·
2022-12-18 09:09
神经网络
算法
python
计算机视觉
机器学习
训练神经网络的详细步骤,神经网络训练过程图解
Coursera
的Ng机器学习,UFLDL都看过。没记错的话Ng的机器学习里是直接给出公式了,虽然你可能知道如何求解,但是即使不知道完成作业也不是问题,只要照着公式写就行。
普通网友
·
2022-12-18 09:27
神经网络
深度学习
机器学习
python深度学习之深层神经网络基础与图像分类
前言本文参考
吴恩达
老师的机器学习课程作业,结合自己的理解所作笔记文章目录前言1、热身:创建并初始化二层神经网络2、进阶:L层神经网络第一部分——正向传播(1)初始化参数initialize_parameters_deep
英雄各有见
·
2022-12-18 08:53
python深度学习
python机器学习
深度学习
python
神经网络
吴恩达
第一门课 神经网络和深度学习 第一周:深度学习引用
前言
吴恩达
第一门课神经网络和深度学习第一周:深度学习引用一、Welcome在第一门课程中,你将会学习如何建立神经网络(包含一个深度神经网络),以及如何在数据上面训练他们。
老干妈拌士力架
·
2022-12-18 07:44
深度学习
深度学习
神经网络
机器学习
吴恩达
深度学习第一门课第二周:神经网络的编程基础
逻辑回归中的梯度下降十、m个样本的梯度下降十一、向量化十二、向量化的更多例子十三、向量化逻辑回归十四、向量化逻辑回归的梯度输出十五、Python中的广播十六、关于python_numpy向量的说明第二周作业前言
吴恩达
深度学习第一门课第二周
老干妈拌士力架
·
2022-12-18 07:44
深度学习
深度学习
神经网络
机器学习
吴恩达
深度学习第四课第一周 卷积神经网络
文章目录前言一、计算机视觉(引言)二、边缘检测示例(过滤器)三、更多边缘检测内容(由亮到暗还是由暗到亮?)四、Padding(Valid、Same、p)五、卷积步长(s)六、三维卷积(通道)七、单层卷积网络八、简单卷积网络示例(Conv,POOL,FC)九、池化层(maxpooling、averagepooling)十、卷积神经网络示例十一、为什么使用卷积?第一周作业情景引入资料下载完整代码前言<
老干妈拌士力架
·
2022-12-18 07:13
深度学习
深度学习
cnn
计算机视觉
高斯分布的极大似然估计
本文是关于
coursera
上《Robotics:EstimationandLearning》课程的笔记。前面通过一个例子简单地介绍了极大似然估计的意思,现在来对高斯分布做极大似然估计。
Yemiekai
·
2022-12-18 00:05
概率论与数理统计
机器学习入门
机器学习入门——
吴恩达
网课笔记文章目录机器学习入门——
吴恩达
网课笔记序一、监督学习与无监督学习二、基础概念1.假设函数2.代价函数3.梯度下降算法序本系列是我尝试在CSDN记录自己学习经历的第一步,希望能坚持下去
BeHumblePlease
·
2022-12-17 23:47
机器学习
python
机器学习
2022
吴恩达
机器学习课程——第二课(神经网络)
注:参考B站视频教程视频链接:【(强推|双字)2022
吴恩达
机器学习Deeplearning.ai课程】文章目录第一周一、神经元二、神经网络三、代码实现&Tensorflow四、前向传播五、强人工智能六
now_try_
·
2022-12-17 16:18
深度学习入门
神经网络
人工智能
吴恩达
机器学习3——逻辑回归、正则化
机器学习第三周一、逻辑回归1.分类问题1.1分类的概念1.2使用线性回归来解决分类模型1.3逻辑回归模型1.4分类边界2.逻辑回归模型logisticregression2.1代价函数2.2梯度下降2.3高级优化方法3.多类别分类:一对多二、正则化1.过拟合问题2.修改代价函数实现正则化3.正则化线性回归4.正则化逻辑回归一、逻辑回归1.分类问题在监督学习的分类中,我们了解到有回归问题和分类问题。
old sweet ᝰ
·
2022-12-17 15:19
机器学习
机器学习简介
此篇文章旨在介绍机器学习的实际应用,所以对算法的原理介绍可能会不是很清楚,想了解清楚的可以看看B站
吴恩达
(稍简
Wolves_YY
·
2022-12-17 13:34
机器学习
matlab
人工智能
机器学习
吴恩达
第三周 编程题 浅神经网络
文章目录一、完整代码1、更新隐藏节点数二、代码解释1、是关于planar_utils.py中的函数2、plt.scatter参数一、完整代码#-*-coding:utf-8-*-"""本文博客地址:https://blog.csdn.net/u013733326/article/details/79702148@author:Oscar"""importnumpyasnpimportmatplot
爱吃肉c
·
2022-12-17 13:20
深度学习吴恩达
神经网络
python
sklearn
吴恩达
第3周第四周一些测试题目
文章目录一、第三周1、关于初始化权重和b为0的问题二、第四周1、层间for循环2、w和b初始化一、第三周参考此博客,有中文和英文题目和答案1、关于初始化权重和b为0的问题Logistic回归的权重w应该随机初始化,而不是全零,因为如果初始化为全零,那么逻辑回归将无法学习到有用的决策边界,因为它将无法“破坏对称性”,是正确的吗?A.TrueB.False答案:B因为:Logistic回归没有隐藏层。
爱吃肉c
·
2022-12-17 13:50
深度学习吴恩达
python
算法
深度学习
机器学习
吴恩达
编程作业题5—正则化线性回归和偏差/方差
1、正则化线性回归1.1可视化数据集我们将从可视化数据集开始,其中包含水位变化的历史记录x和流出水坝的水量y。将实现线性回归,并使用它来拟合数据的直线并绘制学习曲线。将实现多项式回归,以找到更好的数据拟合。复制ex5data1数据集到D:\MachineLearning\ex5目录下。直接调用plot函数进行数据集的绘制。1.2正则化线性回归成本函数和梯度注意,你不应该正则化θ0项。在当前目录下建
身影王座
·
2022-12-17 13:49
#
机器学习吴恩达(基础)
深度学习
人工智能
算法
机器学习
Octave
【深度学习】
吴恩达
-学习笔记 偏差与方差、正则化、梯度检测、mini-batch
目录深度学习偏差与方差L2范数正则化(权重衰减),减少方差Dropoutregularrization(随机失活正则化)数据扩增可以作为一种正则化方法使用提前终止训练数据归一化:梯度消失/梯度爆炸梯度检测Batchvsmini-batch深度学习偏差与方差对于大量数据,训练集,验证集,测试集的划分为8:1:1或99.5:0.25:0.25、99.5:0.4:0.1如果不需要无偏评估算法性能,没有测
—Xi—
·
2022-12-17 13:48
深度学习
算法
机器学习
人工智能
深度学习-归一化输入,梯度消失爆炸,梯度检验
二、梯度消失,爆炸1.梯度2.深度网络学习初始化三、梯度检验梯度检验前言
吴恩达
week5一、归一化输入1、均值方差归一化均值方差归一化。要注意:我们要对训练数据集和测试数据集使用相同的u与方差。
爱吃肉c
·
2022-12-17 08:39
深度学习吴恩达
深度学习
python
[Machinie Learning]
吴恩达
机器学习课程笔记——Week3
MachineLearningbyAndrewNg
吴恩达
机器学习课程学习笔记——Week3本人学习笔记汇总合订本✓课程网址standfordmachinelearning参考资源课程笔记python版作业学习提纲
Carsick Car
·
2022-12-17 08:08
Machine
Learning
人工智能
深度学习
吴恩达
deeplearning.ai - 神经网络和深度学习 - 第一周测验
原文链接:https://blog.csdn.net/u013733326/article/details/79862336Week1Quiz-Introductiontodeeplearning1.Whatdoestheanalogy“AIisthenewelectricity”referto?AIispoweringpersonaldevicesinourhomesandoffices,sim
醉一心
·
2022-12-17 07:58
Python
神经网络
深度学习
人工智能
【机器学习】神经网络各层反向传播中的损失计算
神经网络反向传播中各层损失计算(一个随意的笔记)在看
吴恩达
的神经网络时看不懂表达式啥意思,于是自己推算了一遍。
whooooami
·
2022-12-16 19:23
机器学习
神经网络
机器学习
【机器学习】
吴恩达
:终生学习
新智元报道编辑:LRS【新智元导读】
吴恩达
最近写了两封信,为AI从业者的职业生涯进行指导,最重要的就是终生学习!|还在纠结会不会错过元宇宙和web3浪潮?清华大学科学史系副教授胡翌霖,这次给你讲个透!
风度78
·
2022-12-16 18:38
人工智能
神经网络
大数据
编程语言
python
数据服务门槛再提升,这个“TOP1玩家”凭何再度领军?
根据ML大牛
吴恩达
提出的著名二八定律:80%数据+20%模型=更好的AI。他认为,一个机器学习团队80%的工作应该放在数据准备上,确保数据质量是最重要的工作,每个人都知道应该如此做,但没人在乎。
高工智能汽车
·
2022-12-16 17:00
人工智能
大数据
人工智能的分析与思考
深度学习学术大牛
吴恩达
认为:“未来人工智能会成为如同电力一般的资源。”
floatGray
·
2022-12-16 16:40
机器学习
吴恩达
机器学习python实现(6):SVM支持向量机(文末附完整代码)
所有的数据来源:链接:https://pan.baidu.com/s/1vTaw1n77xPPfKk23KEKARA提取码:5gl21SupportVectorMachines1.1Preparedatasetsimportnumpyasnpimportpandasaspdimportmatplotlib.pyplotaspltimportseabornassb#更好的可视化封装库fromscip
TCQD
·
2022-12-16 16:28
吴恩达课后作业python实现
我爱我的女朋友-瑶瑶
python
支持向量机
人工智能
svm
《机器学习算法竞赛实战》学习笔记4.特征工程
吴恩达
老师有言:“机器学习在本质上还是特征工程,数据和特征决定了机器学习的上限,模型和算法只是逼近这个上限而已。”
全自动学习机器
·
2022-12-16 13:32
机器学习
算法
学习
学习简记_特征工程
特征工程1.特征变换1.1连续变量无量纲化1.2连续变量离散化1.3类别特征转换2.特征组合3.特征评价
吴恩达
老师有言:“机器学习本质上还是特征工程,数据和特征决定了机器学习上限,模型和算法只是去尽可能逼近这个上限而已
全自动学习机器
·
2022-12-16 13:54
学习杂记
机器学习
数据分析
数据挖掘
吴恩达
的2021回顾,这些大事件影响了AI这一年
来源:AI前线作者:AndrewNg译者:核子可乐,刘燕12月23日,机器学习大牛
吴恩达
(AndrewNg)在其主编的人工智能周讯《TheBatch》上发表了最新文章。
Sim1480
·
2022-12-16 12:14
人工智能
大数据
编程语言
机器学习
深度学习
吴恩达
机器学习打卡day1
本系列文档按课程视频的章节(P+第几集)进行分类,记录了学习时的一些知识点,方便自己复习。课程视频P2图1介绍了机器学习的三个指标。分别是:experienceE,taskT&performancemeasureP。图1 图2介绍了机器学习的分类,主要有:Superivedlearning和Unsupervisedlearning,其他的还有Reinforcementlearning等等
学吧 学无止境
·
2022-12-16 06:10
机器学习
人工智能
吴恩达
机器学习视频课笔记【第1-3章】
目录1机器学习的一些概念1.1基础概念1.2监督学习1.3无监督学习1.4模型的泛化能力1.5假设空间2模型相关知识点2.1模型描述2.2代价函数(costfunction)2.3梯度下降(Gradientdescent)2.4线性回归算法(Linearregression)3矩阵和向量typora使用数学公式(部分)1机器学习的一些概念1.1基础概念数据集datasetD={x1,x2,x3,…
反正没几根头发
·
2022-12-16 04:41
吴恩达机器学习笔记
机器学习
人工智能
深度学习
吴恩达
机器学习课程-第一周
1.监督学习数据集中的每个样本都有相应的“正确答案”,再根据这些样本作出预测2.无监督学习数据集中没有任何的标签/有相同的标签,将数据分为不同的簇3.单变量线性回归3.1模型表示只含有一个特征/输入变量:hθ(x)=θ0+θ1(x)h_\theta(x)=\theta_0+\theta_1(x)hθ(x)=θ0+θ1(x)3.2代价函数选择的参数决定了直线相对于训练集的准确程度,模型所预测的值与训
J___code
·
2022-12-16 04:37
机器学习
机器学习
吴恩达
代价函数
梯度下降
[
吴恩达
机器学习课程笔记] week four强化学习
强化学习定义强化学习(ReinforcementLearning,RL),又称再励学习、评价学习或增强学习,是机器学习的范式和方法论之一,用于描述和解决智能体(agent)在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题。在强化学习框架中,我们将只提供我们的算法一个奖励函数,它指示学习代理何时做得好,当它做得不好。然后,学习算法的工作将是找出如何随时间选择行动,从而获得巨大的奖
mossfan
·
2022-12-16 04:35
机器学习
机器学习
人工智能
强化学习
python
2022
吴恩达
机器学习(三)| 无监督学习
目录系列文章目录一、聚类(Clustering)1.什么是聚类2.直观理解K均值算法(常用聚类算法)2.K均值算法3.优化目标4.随机初始化5.选择聚类数二、异常检测(AnomalyDetection)1.发现异常事件2.高斯分布/正态分布3.异常检测算法4.开发与评估异常检测系统5.异常检测和监督学习对比6.选择使用什么特征具体笔记编辑引用系列文章目录(一)监督机器学习:回归和分类(二)高级学习
江某1111号机
·
2022-12-16 04:33
【机器学习】
学习记录
python
机器学习
经验分享
人工智能
2022
吴恩达
机器学习课程学习笔记(第二课第四周)
2022
吴恩达
机器学习课程学习笔记(第二课第四周)决策树模型学习过程纯度选择拆分:信息增益整合One-hot编码连续值特征回归树使用多个决策树有放回抽样随机森林XGBoost何时使用决策树决策树模型举例解释决策树是如何工作的
Ys能保研
·
2022-12-16 04:27
机器学习
人工智能
门控循环单元(Gate Recurrent Unit,GRU)
目录1GRU的输入输出结构2GRU的内部结构2.1重置门resetgate2.2更新门updategate3LSTM与GRU的关系4.总结5
吴恩达
视频截图LSTM通过门控机制使循环神经网络不仅能记忆过去的信息
意念回复
·
2022-12-16 00:17
深度学习
gru
lstm
rnn
吴恩达
《机器学习》笔记汇总
根据学习进度,将课程分为15部分进行笔记,具体内容如下:
吴恩达
机器学习(一)——简介
吴恩达
机器学习(二)——线性回归
吴恩达
机器学习(三)——Logisitic回归
吴恩达
机器学习(四)——正则化
吴恩达
机器学习
青春是首不老歌丶
·
2022-12-16 00:42
吴恩达《机器学习》
上一页
26
27
28
29
30
31
32
33
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他