E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达-Coursera-ML
【
吴恩达
机器学习笔记】一、引言
spm=1011.2415.3001.5343专栏定位:为学习
吴恩达
机器学习视频的同学提供的随堂笔记。专栏简介:在这个专栏,我将整理
吴恩达
机器学习视频的所有内容的笔记,方便大家参考学习。
Pandaconda
·
2022-11-25 19:13
机器学习
人工智能
python
c++
算法
吴恩达
深度学习课程笔记之卷积神经网络(1st week)
0参考资料[1]【中英字幕】
吴恩达
深度学习课程第四课—卷积神经网络_哔哩哔哩_bilibili[2]02-
吴恩达
深度学习系列课程/04卷积神经网络/PDFs·大大鹏/Bilibili资料-码云-开源中国
syphomn
·
2022-11-25 18:50
深度学习与机器学习
深度学习
卷积神经网络
机器学习
人工智能
吴恩达
深度学习课程笔记之卷积神经网络(2nd week)
0参考资料[1]大大鹏/Bilibili资料-Gitee.com[2]【中英字幕】
吴恩达
深度学习课程第四课—卷积神经网络_哔哩哔哩_bilibili[3]深度学习笔记-目录(ai-start.com)1
syphomn
·
2022-11-25 18:50
深度学习与机器学习
机器学习
深度学习
人工智能
卷积神经网络
吴恩达
深度学习课程笔记(一)—— 卷积神经网络基础
一、计算机视觉在运行神经网络对图像进行处理时,对于64*64大小的图像,图像就有12288个参数,而对于一张1000*1000大小的图像,参数更是多达300万个,假设隐藏层有1000个神经元,那么参数就是300万*1000个,300亿个参数,可想而知数据量过于庞大。为解决此问题,我们需要采用卷积计算。二、边缘检测①用神经网络的前几层来检测图像边缘,然后用后面的层检测特征,可以完成对一个完整物体进行
Echo_`
·
2022-11-25 18:19
吴恩达深度学习笔记
深度学习
cnn
计算机视觉
神经网络
卷积神经网络笔记--
吴恩达
深度学习课程笔记(一)
一.卷积神经网络(一)1.1计算机视觉卷积神经网络一般应用于计算机视觉领域,由于有的时候图片的像素点很多,导致神经网络输入特征值的维数很多。1.2边缘检测示例如下图所示,原图是一个661的矩阵,卷积核是一个331的矩阵,经过卷积后得到一个441的矩阵。计算过程如下:|3|0|1|…………|1|0|-1||1|5|8|…*….….|1|0|-1|=3+1+2-1-8-2=-5|2|7|2|…………|
无乎648
·
2022-11-25 18:48
深度学习
神经网络
卷积
计算机视觉
深度学习
吴恩达
深度学习课程笔记(初步认识神经网络)
吴恩达
深度学习课程笔记1课程主要内容1.神经网络与深度学习介绍2.ImprovingDeepNeuralNetworks:超参数调整,正则化,优化方法3.结构化机器学习工程:比如如何分割训练集,比较集,
fuulish
·
2022-11-25 18:48
深度学习
神经网络
斯坦福CS229机器学习笔记-Lecture8- SVM支持向量机 之核方法 + 软间隔 + SMO 算法
作者:teeyohuang邮箱:
[email protected]
本文系原创,供交流学习使用,转载请注明出处,谢谢声明:此系列博文根据斯坦福CS229课程,
吴恩达
主讲所写,为本人自学笔记,写成博客分享出来博文中部分图片和公式都来源于
Teeyohuang
·
2022-11-25 17:06
机器学习
CS229-吴恩达机器学习笔记
吴恩达
机器学习
CS229
吴恩达
机器学习作业8(下)--- 推荐系统
文章目录代码分析数据集代码分析导入数据datafile='data/ex8_movies.mat'mat=scipy.io.loadmat(datafile)Y=mat['Y']R=mat['R']nm,nu=Y.shape#Yis1682x943containingratings(1-5)of1682movieson943users#0意味着这部电影没有评分#Ris1682x943contain
NP_hard
·
2022-11-25 11:24
Machine
learning
吴恩达
Deeplearning.ai国庆节上新:生成对抗网络(GAN)专项课程
机器之心作者:蛋酱Coursera刚刚上新了GAN的专项课程,或许在这个国庆假期,你应该学习一波了。生成对抗网络(GenerativeAdversarialNetwork,GAN)是当前功能最强大的机器学习模型之一,其能够生成逼真的图像、视频和语音输出结果。基于GAN的应用十分广泛,比如防御对抗攻击和数据匿名化来保护隐私,以提升网络安全性,再比如生成新图像,为黑白图像着色、提高图像分辨率、2D图像
人工智能与算法学习
·
2022-11-25 10:11
神经网络
机器学习
人工智能
深度学习
编程语言
吴恩达
深度学习03-2.910 端到端的学习
目录什么是端到端学习(end-to-endlearning)概念举例是否要使用到端到端学习什么是端到端学习(end-to-endlearning)概念简单来说,就是一项有很多中间步骤的任务摆在你面前,它需要对输入x做很多步的中间处理,然后得到目标y。而端到端学习则只学习x对于y的映射,即学习输入x,对应标签输出y,而不考虑中间的过程处理,仅仅通过学习映射的方式来将此任务解决。这样的好处就是省去了中
CtrlZ1
·
2022-11-25 09:30
吴恩达深度学习课程
深度学习
人工智能
算法
吴恩达
【
吴恩达
机器学习笔记】二、单变量线性回归
spm=1011.2415.3001.5343专栏定位:为学习
吴恩达
机器学习视频的同学提供的随堂笔记。专栏简介:在这个专栏,我将整理
吴恩达
机器学习视频的所有内容的笔记,方便大家参考学习。
Pandaconda
·
2022-11-25 08:27
机器学习
线性回归
回归
c++
算法
什么是Bounding Box、anchor box?
由于最近在看YOLOv3算法,感觉老是不清楚boundingbox和anchorbox的概念,看完
吴恩达
的视频后准备写一篇博客记下笔记。em...所以也会用
吴恩达
视频中的例子来讲。
hjl_heart
·
2022-11-24 23:56
AI人工智能
神经网络
深度学习
吴恩达
deeplearning.ai系列课程笔记+编程作业(11)第四课 卷积神经网络-第二周 深度卷积网络:实例探究(Deep convolutional models: case studies)
第四门课卷积神经网络(ConvolutionalNeuralNetworks)第二周深度卷积网络:实例探究(Deepconvolutionalmodels:casestudies)文章目录第四门课卷积神经网络(ConvolutionalNeuralNetworks)第二周深度卷积网络:实例探究(Deepconvolutionalmodels:casestudies)2.1为什么要进行实例探究?(W
geekxiaoz
·
2022-11-24 18:15
残差网络
1*1卷积
Inception网络
卷积神经网络
深度学习
吴恩达
deeplearning.ai系列课程笔记+编程作业(3)第一课 神经网络和深度学习-第三周:浅层神经网络(Shallow neural networks)
第一门课神经网络和深度学习(NeuralNetworksandDeepLearning)第三周:浅层神经网络(Shallowneuralnetworks)文章目录第一门课神经网络和深度学习(NeuralNetworksandDeepLearning)第三周:浅层神经网络(Shallowneuralnetworks)3.1神经网络概述(NeuralNetworkOverview)3.2神经网络的表示
geekxiaoz
·
2022-11-24 18:15
coursera
神经网络
吴恩达
反向传播
前向传播
原GAN(DCGAN)缺陷
GAN的家族【知多少】_哔哩哔哩_bilibili一、模式崩塌
吴恩达
视频讲解(模式崩塌)https://www.bilibili.com/video/BV1b54y1k7bY?
我是BQ
·
2022-11-24 13:38
GAN
深度学习
人工智能
机器学习
吴恩达
机器学习ex2:逻辑回归
吴恩达
机器学习练习二:逻辑回归1.逻辑回归(logisticregression)构建一个可以基于两次测试评分来评估录取可能性的分类模型。
wssssang
·
2022-11-24 12:54
python
机器学习
机器学习
python
吴恩达
机器学习课程ex2 Python实现
逻辑回归在训练的初始阶段,我们将要构建一个逻辑回归模型来预测,某个学生是否被大学录取。设想你是大学相关部分的管理者,想通过申请学生两次测试的评分,来决定他们是否被录取。现在你拥有之前申请学生的可以用于训练逻辑回归的训练样本集。对于每一个训练样本,你有他们两次测试的评分和最后是被录取的结果数据可视化importnumpyasnpimportpandasaspdimportmatplotlib.pyp
枸杞仙人
·
2022-11-24 12:52
机器学习
python
机器学习
逻辑回归
吴恩达
机器学习课程笔记ex2+python代码实现+课程原文档
建立一个逻辑回归模型来预测一个学生是否被大学录取。1.逻辑回归#根据两次考试的结果来确定每个申请人的录取机会importnumpyasnpimportpandasaspdimportmatplotlib.pyplotaspltpath='ex2data1.txt'data=pd.read_csv(path,header=None,names=['Exam1','Exam2','Admitted']
蓝胖砸~
·
2022-11-24 12:51
python
机器学习
深度学习
逻辑回归
神经网络
保姆级教程
吴恩达
机器学习ex2Matlab代码解析
%%MachinelearningFromAndrewwithMatlabex2%%Byyouknowwho3_3inCSDN#GirlsHelpGirls#DOUBANEZU%%logisticregression's%1.sigmoidfunction%2.computecostFunctionforlogisticregression%3.Gradientforlogisticregress
youknowwho3_3
·
2022-11-24 12:49
机器学习
Coursera
machinelearning
机器学习
人工智能
python
matlab
吴恩达
机器学习课后习题ex2
ex2:Logistic_regressionimportnumpyasnpimportpandasaspdimportmatplotlib.pyplotaspltimportscipy.optimizeasopt#优化算法fromsklearn.metricsimportclassification_reportfromsklearnimportlinear_modelScipy优化算法:sci
东流-beyond the label
·
2022-11-24 12:48
计算机视觉
吴恩达机器学习
课后习题
吴恩达
机器学习课后习题ex2(续)
ex2:Regularizedlogisticregressionimportnumpyasnpimportmatplotlib.pyplotaspltimportpandasaspdfromsklearnimportlinear_modelimportscipy.optimizeasoptfromsklearn.metricsimportclassification_reportdefraw_d
东流-beyond the label
·
2022-11-24 12:48
计算机视觉
吴恩达机器学习
课后习题答案
吴恩达
机器学习 ex2 逻辑回归及过拟合 python实现
本文的目录~1LogisticRegression1.1visualizingthedata1.2implementation1.2.1sigmoidfunction1.2.2Costfunctionandgradient1.2.3Learningparametersusingfminunc*scipy的一些内容介绍fmin_tnc()使用scipy1.2.4绘制决策边界1.2.5Evaluati
洗千帆,还少年
·
2022-11-24 12:48
机器学习学习篇
python
机器学习
深度学习
(
吴恩达
)机器学习课后练习二代码解析(ex2)
作业二:ex2答案解析一、逻辑回归第一部分:ex2.m文件代码解读:clear;closeall;clc;data=load('ex2data1.txt');%读取数据X=data(:,[1,2]);y=data(:,3);%data是一个矩阵,X为第一到第二列所有的行的值组成一个矩阵plotData(X,y);%调用函数(筛选的数据、画图的规则)holdon;%两个轴的名称xlabel('Exa
奔跑的小仙女
·
2022-11-24 12:18
深度学习
matlab
吴恩达
机器学习
课后答案
吴恩达
机器学习ex2
文章目录逻辑回归-线性可分基础知识实验要求数据可视化构造数据集构造损失函数梯度下降函数准确率绘制决策边界逻辑回归-线性不可分知识点案例介绍数据可视化特征映射构造数据集正则化损失函数梯度下降函数准确率数据可视化逻辑回归-线性可分基础知识线性可分指的是多变量的情况下,可以用直线将两种类别进行划分这样我们可以对该模型的函数做出如下假设,由于该分类需要将结果分为0和1,如果还是与上次实验一样使用h=the
每个人都是孙笑川
·
2022-11-24 12:17
吴恩达
机器学习
学习笔记
机器学习
python
jupyter
吴恩达
机器学习ex2 python实现
这个项目包含了
吴恩达
机器学习ex2的python实现,主要知识点为逻辑回归、正则化。1.逻辑回归构建一个逻辑回归模型来预测,某个学生是否被大学录取。
qq_26402041
·
2022-11-24 12:46
机器学习
python
机器学习
逻辑回归
吴恩达
《机器学习》ex2作业第一部分Python实现——逻辑回归 参考
ProgrammingExercise2:LogisticRegression逻辑回归一、所用数据集:34.62365962451697,78.0246928153624,030.28671076822607,43.89499752400101,035.84740876993872,72.90219802708364,060.18259938620976,86.30855209546826,179
小牛不怕码代码
·
2022-11-24 12:45
机器学习
机器学习
python
逻辑回归
吴恩达
机器学习ex2任务1+任务2代码
importpandasaspdimportnumpyasnpimportmatplotlib.pyplotaspltimportscipy.optimizeasopt#数据导入path=r'D:\旧盘\研究生部分\
吴恩达
机器学习
Maturisa
·
2022-11-24 12:09
吴恩达机器学习作业
python
深度学习课程自学笔记整理(二)——一些自己总结记录的结论和小tips等
注:本人已经学完了
吴恩达
老师机器学习深度学习的全部课程,整理出来的知识点是比较笼统的、自己总结的一些结论和经验,发在这里主要是为了方便自己复习翻阅,已经学完大部分课程或者对深度学习有了一定基础的uu可以阅读下
yan_nLiiiiii
·
2022-11-24 11:45
机器学习深度学习
深度学习
人工智能
机器学习
吴恩达
machine-learning-specialization2022第1周的optional lab
1.使用python和numpy实现一个线性回归要求使用梯度下降法,可视化losslossloss随着迭代次数的变化曲线2.说明2.1拟合函数fw,b(x(i))=wx(i)+bf_{w,b}(x^{(i)})=wx^{(i)}+bfw,b(x(i))=wx(i)+b2.2均方误差损失函数J(w,b)=12m∑i=0m−1(fw,b(x(i))−y(i))2J(w,b)=\frac{1}{2m}\
吴天德少侠
·
2022-11-24 09:10
深度学习
python
python
机器学习
深度学习
国内官网下载pytorch(GPU版)
国内官网下载GPU版pytorch用官网conda下载坑换清华镜像源的坑使用官网pip3下载成功看完了
吴恩达
的深度学习,然后去B站看李沐的卷积神经网络的代码实现,由于之前学习阶段搭建的环境有点混乱,想着自己能科学上网就打算直接卸载
简生_
·
2022-11-24 09:15
pytorch的笔记
pytorch
深度学习
机器学习 | Week4-Neural Networks Representation神经网络:表达
Week4-NeuralNetworksRepresentation神经网络:表达一、Non-linearHypothesis非线性模型(经过考虑,事实上hypothesis这里更像一个模型而非假设,事实上
吴恩达
在
Lightfly203
·
2022-11-24 05:39
吴恩达机器学习笔记
人工智能
机器学习
吴恩达
机器学习系列课程笔记——第八章:神经网络:表述(Neural Networks: Representation)
8.1非线性假设https://www.bilibili.com/video/BV164411b7dx?p=43我们之前学的,无论是线性回归还是逻辑回归都有这样一个缺点,即:当特征太多时,计算的负荷会非常大。下面是一个例子:当我们使用x1、x2的多次项式进行预测时,我们可以应用的很好。之前我们已经看到过,使用非线性的多项式项,能够帮助我们建立更好的分类模型。但假设我们有非常多的特征,例如大于100
Lishier99
·
2022-11-24 05:39
机器学习
机器学习
神经网络
人工智能
吴恩达
机器学习笔记(六)Neural NetWorks:Representation
神经网络NeuralNetworks:Representation模型表达I:ModelrepresentationI单个神经元树突:inputwires轴突:outputwires神经元:逻辑单元parameter:weight权重x0:biasunit\biasneuron(偏置单元\偏置神经元)Sigmoid(logistic)activationfunction:non-linearity
哇哈哈哈哈呀哇哈哈哈
·
2022-11-24 05:09
机器学习
神经网络
人工智能
吴恩达
机器学习笔记-神经网络:表述(Neural Networks: Representation)
非线性假设我们之前学的,无论是线性回归还是逻辑回归都有这样一个缺点,即:当特征太多时,计算的负荷会非常大。例如大于100个变量,我们希望用这100个特征来构建一个非线性的多项式模型,结果将是数量非常惊人的特征组合,即便我们只采用两两特征的组合,我们也会有接近5000个组合而成的特征。这对于一般的逻辑回归来说需要计算的特征太多了。假设我们希望训练一个模型来识别视觉对象(例如识别一张图片上是否是一辆汽
_4444yl
·
2022-11-24 05:09
大数据与人工智能
《
吴恩达
深度学习》学习笔记003_浅层神经网络(Shallow neural networks)
http://www.ai-start.com/dl2017/html/lesson1-week3.html浅层神经网络(Shallowneuralnetworks)神经网络概述(NeuralNetworkOverview)公式3.1建立联系。图3.1.1:公式3.1:KaTeXparseerror:Expectedgroupafter'\right'atposition52:…d{array}\
Stark0x01
·
2022-11-24 05:38
【
吴恩达
深度学习笔记】1.3 浅层神经网络Shallow neural networks
第一门课神经网络和深度学习(NeuralNetworksandDeepLearning)3.1神经网络概述(NeuralNetworkOverview)感觉这块没啥好记的3.2神经网络的表示(NeuralNetworkRepresentation)神经网络包括输入层(inputlayer):包含输入特征x1,x2,...x_1,x_2,...x1,x2,...隐藏层(hiddenlayer):训练
贪钱算法还我头发
·
2022-11-24 05:08
AI
#
Deep
Learning
深度学习
第4周学习笔记-Neural Networks: Representation神经网络表述-Coursera机器学习-
吴恩达
文章目录NeuralNetworks:RepresentationMotivationsNon-linearHypotheses非线性假设(函数)NeuronsandtheBrain神经元和大脑NeuralNetworksModelRepresentationI模型表示IModelRepresentationIIApplicationsExamplesandIntuitionsI例子和直观感觉IE
brayo
·
2022-11-24 05:07
机器学习
吴恩达-Coursera-ML
课程笔记
机器学习
课程笔记
吴恩达-Coursera
神经网络
吴恩达
机器学习编程作业与笔记(3)第4周:Neural Networks: Representation神经网络:表示
lrCostFunction.m-Logisticregressioncostfunctionfunction[J,grad]=lrCostFunction(theta,X,y,lambda)%LRCOSTFUNCTIONComputecostandgradientforlogisticregressionwith%regularization%J=LRCOSTFUNCTION(theta,X,y
STL_CC
·
2022-11-24 05:37
数据科学与人工智能笔记
机器学习
神经网络
人工智能
深度学习
吴恩达
Ex3_机器学习_
吴恩达
课程作业(Python):多分类和神经网络(Multi-class Classification & Neural Networks)
Ex3_机器学习_
吴恩达
课程作业(Python):多分类和神经网络(Multi-classClassification&NeuralNetworks)文章目录Ex3_机器学习_
吴恩达
课程作业(Python
Zzay_naw
·
2022-11-24 05:37
数据分析
笔记
机器学习
python
神经网络
机器学习
机器学习-
吴恩达
逻辑回归(笔记)
文章目录什么是逻辑(Logistic)回归Sigmoid函数公式的另一种写法:决策边界(DecisionBoundary)多个特征的决策边界线性决策边界非线性决策边界逻辑回归的代价函数Logisticloss函数逻辑回归的代价函数梯度下降实现什么是逻辑(Logistic)回归逻辑回归是一种用于解决二分类(要么是0要么是1)问题的机器学习方法。比如:一个患者的肿瘤是否为良性的,结果只有是或不是两种可
稀奇_
·
2022-11-24 05:17
机器学习
机器学习
逻辑回归
python
吴恩达
机器学习笔记17-逻辑回归的代价函数
在这段视频中,我们要介绍如何拟合逻辑回归模型的参数?。具体来说,我要定义用来拟合参数的优化目标或者叫代价函数,这便是监督学习问题中的逻辑回归模型的拟合问题。对于线性回归模型,我们定义的代价函数是所有模型误差的平方和。理论上来说,我们也可以对逻辑回归模型沿用这个定义,但是问题在于,当我们将带入到这样定义了的代价函数中时,我们得到的代价函数将是一个非凸函数(non-convexfunction)。这意
weixin_33754065
·
2022-11-24 05:13
人工智能
数据结构与算法
吴恩达
机器学习笔记---逻辑回归模型
前言之前学习的单变量和多变量线性回归都是解决监督学习中的回归问题,现在开始学习如何解决监督学习中的分类问题,分类问题即输出都是离散值,我们主要通过逻辑回归模型来解决分类问题1.分类问题(Classification)2.假说表示(HypoththesisRepresentation)3.判定边界(DecisionBoundary)逻辑回归模型(一)分类问题(Classification) 分类问
ML0209
·
2022-11-24 05:39
机器学习
机器学习
吴恩达
机器学习笔记---逻辑回归模型参数优化
前言利用梯度下降对逻辑回归模型的代价函数求取最小解,实现模型参数的优化1.代价函数(CostFunction)2.梯度下降(GradientDescent)3.高级优化(AdvancedOptimization)4.多类别分类(MulticlassClassification)逻辑回归模型参数优化(一)代价函数(CostFunction) 在线性回归模型中,我们选取所有样本误差的平方和的均值作为
ML0209
·
2022-11-24 05:39
机器学习
逻辑回归
机器学习
【基础】
吴恩达
机器学习笔记 - 线性回归 & 代价函数 & 梯度下降
一、基本概念1.1机器学习的定义一个年代近一点的定义,由来自卡内基梅隆大学的TomMitchell提出,一个好的学习问题定义如下:一个程序被认为能从经验E中学习,解决任务T,达到性能度量值P,当且仅当,有了经验E后,经过P评判,程序在处理T时的性能有所提升。比如以下棋的机器学习算法为例:经验E就是程序上万次的自我练习的经验,任务T是下棋,性能度量值P是它在与一些新的对手比赛时,赢得比赛的概率。1.
zenRRan
·
2022-11-24 05:36
吴恩达
机器学习笔记--逻辑回归
分类问题:是否垃圾邮件,肿瘤良性恶性......线性回归的问题:不适用于分类问题。因为线性回归一般用最小二乘来得出最优的回归曲线,而一个极端值,就能让曲线的偏离很大。逻辑回归就是在线性回归z=的基础上,再做了一步结果再0,1之间。决策边界g(z)=0.5,也就是z=0,当z>=0的时候,预测y值为1,否则为0.改变z=为高阶多项式,就可以使决策边界由直线是变成曲线。逻辑回归的代价函数是一个凸函数,
mumuok
·
2022-11-24 05:36
吴恩达
深度学习笔记——DAY4
目录一、神经网络的梯度下降二、随机初始化三、深层神经网络四、矩阵的维数五、参数VS超参数一、神经网络的梯度下降正向传播的方程:反向传播方程:二、随机初始化如果你要初始化成0,由于所有的隐含单元都是对称的,无论你运行梯度下降多久,他们一直计算同样的函数。这没有任何帮助,因为你想要两个不同的隐含单元计算不同的函数,这个问题的解决方法就是随机初始化参数。初始化如下:这里的0.01是为了使得产生的随机数数
qq_45948088
·
2022-11-24 00:18
深度学习
神经网络
cnn
吴恩达
深度学习——DAY3
目录一、神经网络的表示二、神经网络的计算与输出三、激活函数四、修正线性单元的函数(ReLu)五、不选用线性函数一、神经网络的表示输入特征?1、?2、?3,它们被竖直地堆叠起来,这叫做神经网络的输入层。它包含了神经网络的输入;然后这里有另外一层我们称之为隐藏层,最后一层只由一个结点构成,而这个只有一个结点的层被称为输出层,它负责产生预测值。隐藏层:在一个神经网络中,当你使用监督学习训练它的时候,训练
qq_45948088
·
2022-11-24 00:17
深度学习
神经网络
吴恩达
深度学习笔记——DAY2
目录一、梯度下降法二、向量化(Vectorization)三、Python中的广播(BroadcastinginPython)一、梯度下降法梯度下降法在测试集上,通过最小化代价函数(成本函数〉J(w,b)来训练的参数w和b,找到全局最优解,也就是代价函数(成本函数)J(w,b)这个凸函数的最小值点,这个函数含有两个参数w和b。二、向量化(Vectorization)向量化是非常基础的去除代码中fo
qq_45948088
·
2022-11-24 00:47
深度学习
人工智能
神经网络
一、深度学习与神经网络
前言我之前的博客写过
吴恩达
老师的《机器学习》的教程及笔记,之前我一直都喜欢记在本子上,经常本子写满了之后就再去翻阅资料的时候找不到,
吴恩达
深度学习的视频我之前也看过也做了一些笔记,目前这段时间也比较有空就将一些学习过程的笔记记录下来方便自己以后查阅及学习
JockerWong
·
2022-11-23 23:12
深度学习
深度学习
神经网络
Keras
MNIST
吴恩达
机器学习笔记
机器学习week1Introduction1.SupervisedLearning监督学习给定一个数据集,并且知道其一些正确输出,能够明确知道是不是正确或者错误回归问题:预测一个连续的值的输出分类问题:根据输入给出一个离散的结果输出2.UnsupervisedLearning无监督学习只给出一个数据集,并没有给出其关系,需要我们自行寻找其结构ModelandCostFunctionModelrep
lqvir
·
2022-11-23 17:03
机器学习
线性代数
概率论
上一页
30
31
32
33
34
35
36
37
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他