E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达机器学习:week2
【
吴恩达机器学习
】学习记录2:多元梯度下降法与正规方程
使用矩阵运算多元线性回归多元梯度下降法为加快梯度下降速度的一些方法特征与多项式回归正规方程使用矩阵运算在较为复杂、数据量较多的情况下,使用矩阵这种数学表达形式会更加清晰并且有利于计算,吴恩达教授在视频中介绍了矩阵和向量的基本概念、矩阵的加法和数乘运算、矩阵和向量的乘法、矩阵的乘法及其特性、矩阵和逆和转置,矩阵的乘法可以使我们只需要做一次运算就能得到想要的多个结果,例如:【1】计算一个函数的不同取值
ayayayayo
·
2022-06-14 10:21
机器学习
机器学习
人工智能
Java编写实现窗体程序显示日历
.*; publicclassTestextendsJFrame{ JButtonweek1,
week2
,week3,week4,week5,week6,week
·
2022-06-13 12:02
【机器学习】梯度下降之数据标准化
文章目录前言问题分析3D可视化解决方法特别注释:前言
吴恩达机器学习
学习笔记,看完文章大概需要三分钟问题分析在线性回归中,尤其是多变量回归模型,由于各个的数据之间量化纲位不同,如果数据范围分别是是【0~1000
计算机魔术师
·
2022-06-13 07:08
机器学习
机器学习
人工智能
吴恩达机器学习
----应用机器学习的建议
吴恩达机器学习
教程学习笔记(8/16)吴恩达教授(AndrewNg)的机器学习可以说是一门非常重视ML理论基础的课程,做做一些简单的笔记加上个人的理解。
huapusi
·
2022-06-12 15:40
吴恩达机器学习笔记
吴恩达
机器学习
方差
偏差
吴恩达机器学习
课程第七周笔记
吴恩达机器学习
课程第七周笔记超参数调试、Batch正则化和程序框架(Hyperparametertuning)调试处理(Tuningprocess)为超参数选择合适的范围(Usinganappropriatescaletopickhyperparameters
DreamHigh_GRT
·
2022-06-12 15:10
机器学习
吴恩达机器学习课程笔记
吴恩达机器学习
课程-第六周(part1)
1.应用机器学习的建议1.1下一步做什么假如说在预测房价时产生了巨大的误差,现在要想改进这个算法,接下来应该怎么办?获得更多的训练样本尝试减少特征的数量尝试获得更多的特征尝试增加多项式特征尝试减少正则化程度λ\lambdaλ尝试增加正则化程度λ\lambdaλ但是如果随机选择上面的某种方法来改进我们的算法会浪费很多事件,所以需要运用一些机器学习诊断法来帮助判断哪些方法对算法是有效的1.2评估一个假
J___code
·
2022-06-12 15:10
机器学习
机器学习
偏差
方差
交叉验证
吴恩达机器学习
课程-第六周(part2)
1.机器学习系统的设计以垃圾邮件分类算法为例开启讨论:1.1首先要做什么一般而言首先需要确定如何选择并表达特征向量xxx,假设选出垃圾邮件中100个常见词构建一个语料库,当这些词出现该邮件中,便将向量相应位置置为1,于是该邮件的向量表示为x=[0,0,1,1,...]Tx=[0,0,1,1,...]^Tx=[0,0,1,1,...]T。除此之外,为了构建该分类算法,还有很多事可以做:收集更多数据基
J___code
·
2022-06-12 15:40
机器学习
机器学习
查全率
查准率
F1
吴恩达机器学习
课程-第八周
1.聚类Clustering1.1无监督学习简介对于监督学习,训练集是有标签的,其目标是找到能够区分正样本和负样本的决策边界。而在非监督学习中,数据没有附带任何标签,如下图所示,将这些无标签的训练数据,输入到一个算法中,最终找这些数据的内在结构:1.2K-均值1.2.1算法流程K-均值(K-Means)算法是最普及的聚类算法,该算法需要一个未标记的数据集以及KKK值,然后将数据聚类成不同的组。具体
J___code
·
2022-06-12 15:08
机器学习
机器学习
PCA
k-means
无监督学习
降维
吴恩达机器学习
----降维
吴恩达机器学习
教程学习笔记(12/16)吴恩达教授(AndrewNg)的机器学习可以说是一门非常重视ML理论基础的课程,做做一些简单的笔记加上个人的理解。
huapusi
·
2022-06-12 07:57
吴恩达机器学习笔记
吴恩达
数据降维
主成分分析算法
PCA
吴恩达机器学习
课程-第七周
1.支持向量机SVM1.1优化目标在逻辑回归中,针对一个样本的损失函数如下:−y(i)log(hθ(x(i))+(1−y(i))log(1−hθ(x(i))=−y(i)log(11+e−θT⋅x)+(1−y(i))log(1−11+e−θT⋅x)-y^{(i)}log(h_\theta(x^{(i)})+(1-y^{(i)})log(1-h_\theta(x^{(i)})=-y^{(i)}log(
J___code
·
2022-06-10 09:52
机器学习
机器学习
支持向量机
核函数
吴恩达机器学习
课程-第五周
1.神经网络的学习1.1代价函数假设神经网络的训练样本有mmm个,每个包含一组输入xxx和一组输出信号yyy,LLL表示神经网络的总层数,sls_lsl表示在第lll层的神经元个数(不包括biasunit):在逻辑回归中使用到的代价函数如下,它只有一个输出变量:J(θ)=−1m[∑i=1my(i)log(hθ(x(i)))+(1−y(i))log(1−hθ(x(i)))]+λ2m∑j=1nθj2J
J___code
·
2022-06-03 22:45
机器学习
机器学习
神经网络
反向传播
吴恩达机器学习
课程-第二周
1.多变量线性回归1.1多维特征在第一周的学习中探讨了单变量的回归模型,现在对房价模型增加更多的特征,例如房间数楼层等,构成一个含有多个变量的模型,模型中的特征为(x1,x2,...xn)(x_1,x_2,...x_n)(x1,x2,...xn)。xj(i)x^{(i)}_jxj(i)代表特征矩阵中第iii行的第jjj个特征,也就是第iii个训练实例的第jjj个特征综上,hθ(x)=θ0x0+θ1
J___code
·
2022-06-03 22:15
机器学习
机器学习
多变量
正规矩阵
吴恩达机器学习
课程-第四周
1.非线性假设对于下图中的两类点,如果只考虑两个特性,需要使用非线性的多项式才能很好的建立一个分类模型,如g(θ0+θ1x1+θ2x2+θ3x1x2+θ4x12x2+...)g(\theta_0+\theta_1x_1+\theta_2x_2+\theta_3x_1x_2+\theta_4x_1^2x_2+...)g(θ0+θ1x1+θ2x2+θ3x1x2+θ4x12x2+...):但是假如存在成
J___code
·
2022-06-03 22:15
机器学习
机器学习
神经网络
前向传播
吴恩达机器学习
课程-第三周
1.逻辑回归1.1分类问题首先要明确,逻辑回归解决的是分类问题。比如电子邮件是否为垃圾邮件等都属于分类问题1.1.1二元分类将因变量可能属于的两个类分别称为正类(用1表示)和负类(用0表示),还是使用线性回归去处理该分类问题,得到以下图像:其中,当hθ(x)≥0.5h_\theta(x)\ge0.5hθ(x)≥0.5,预测y=1y=1y=1;当hθ(x)1/hθ(x)1/h_\theta(x)1/
J___code
·
2022-06-03 22:36
机器学习
机器学习
逻辑回归
正则化
二元分类
多分类
[机器学习系列二]TensorFlow入门
,相关课程可以参考
吴恩达机器学习
系列课程。
925781609
·
2022-06-03 12:17
2022-05-26 正念训练营Day12-停下-呼吸-观察-继续
【正念训练营-三周学会调节情绪】
Week2
正念情绪调节Day12停下-呼吸-观察-继续时间:周四傍晚练习让时间慢下来的正念绝技:stop一、练习1、暂停(stop/slowdown):舒适的坐姿,安静下来
南下飞鸿踏雪泥
·
2022-05-31 17:44
吴恩达机器学习
:聚类与降维 (K-means & PCA)总结与作业
聚类与降维(一)聚类:简介K均值算法(K-MeansAlgorithm)1.1K-Means优化1.2随机初始化1.3选择聚类数(二)K-means聚类作业2.1计算K-均值2.1.1寻找最近的质心2.1.2计算质心平均值2.1.3可视化处理2.2寻找最优K2.2.1随机初始化2.2.2中心点的选择2.2.3决定聚类数K(三)用scikit-learn学习K-Means聚类3.1参数介绍3.2K值
Belouga-
·
2022-05-31 07:36
吴恩达机器学习
(八)聚类与降维(K-Means,PCA)
∗∗∗点击查看:
吴恩达机器学习
——整套笔记+编程作业详解∗∗∗\color{#f00}{***\点击查看\:
吴恩达机器学习
\——\整套笔记+编程作业详解\***}∗∗∗点击查看:
吴恩达机器学习
——整套笔记
Fun'
·
2022-05-31 07:46
机器学习
pca降维
kmeans算法
聚类
机器学习
算法
吴恩达机器学习
作业7 - K-means和PCA主成分分析(Python实现)
吴恩达机器学习
作业7-K-means和PCA主成分分析(Python实现)Introduction在本实验中,将实现K-means聚类算法,并将其应用于图像压缩。
Phoenix_ZengHao
·
2022-05-31 07:35
机器学习
python
机器学习
sklearn
聚类
scikit-learn
吴恩达机器学习
作业7
pcasigma=X'*X/m;[U,S,V]=svd(sigma);projectDataU_reduce=U(:,1:K);Z=X*U_reduce;recoverDataU_reduce=U(:,1:K);X_rec=Z*U_reduce';findClosestCentroidsm=size(X,1);fori=1:mind_k=zeros(K,1);forj=1:Kind_k(j)=su
月暗云霄
·
2022-05-30 09:19
机器学习
机器学习
【机器学习】python实现
吴恩达机器学习
作业合集(含数据集)
学习感言:从3.7第一天开始,到今天4.4,一个多月的时间,陆续完成了听课,代码实现和总结博客,过程些许艰难,作为一个刚入门的学习者,收获了很多。总结一下这一段时间的学习过程吧。后面的学习方向还在思考。目录1.0线性回归预测2.0线性可分logistic逻辑回归2.1线性不可分logistic逻辑回归3.0logistic逻辑回归手写多分类问题3.1神经网络正向传播4.0神经网络反向传播(BP算法
—Xi—
·
2022-05-30 09:18
机器学习
大数据
python
回归
人工智能
吴恩达机器学习
系列课程作业ex7 matlab实现
目录findClosestCentroids.mcomputeCentroids.mpca.mprojectData.mrecoverData.mfindClosestCentroids.mfunctionidx=findClosestCentroids(X,centroids)%FINDCLOSESTCENTROIDScomputesthecentroidmembershipsforeverye
d7901699
·
2022-05-30 09:17
机器学习
matlab
人工智能
吴恩达机器学习
——笔记
(考研数学一基础,仅供个人纪录,大纲为主,其中python代码
[email protected]
笔记)一、基础知识1监督学习/无监督学习2单变量线性回归(1)模型表示(2)代价函数(costfunction)——残差平方和(3)直观理解——图示法(4)梯度下降——求解全局最小值学习率α;梯度下降算法;梯度下降中的线性回归正规方程法——向量化3多变量线性回归(1)多维特征(2)多变量梯度下降
张刻迟
·
2022-05-25 07:24
笔记——深度学习入门
吴恩达机器学习
笔记(八)——深入神经网络
注:在吴恩达老师的机器学习的视频中,神经网络部分更多的讨论是在分类方面的应用。1.代价函数首先,我们拥有如下的神经网络架构,如下图所示:然后我们拥有如下的训练集,如下图所示:接下来我们需要定义两个概念:L=神经网络的总层数sl=第l层中的单元数(不包括偏置单元)如上图s1=3、s2=5并且从之前的知识,我们也了解到:当进行二元分类的时候,输出层会只有一个单元。当进行多元分类的时候,输出层会有多个单
XHHP
·
2022-05-25 07:53
吴恩达机器学习笔记
神经网络
吴恩达
机器学习
反向传播算法
吴恩达机器学习
——第三周学习笔记
二元分类(BinaryClassfication)分类,一种方法是使用线性回归,将所有大于0.5的预测映射为1,将所有小于0.5的预测映射为0。然而,这种方法并不能很好地工作,因为分类实际上不是一个线性函数。分类问题和回归问题一样,只是我们现在想要预测的值只有少量离散值。现在,我们将使用二元分类问题,其中y只能有两个值,0和1。如:y∈{0,1},0代表良性肿瘤,1代表恶性肿瘤收到一封邮件,0代表
Wanidde
·
2022-05-25 07:47
机器学习
学习
python
机器学习
吴恩达机器学习
——第四周学习笔记
之前学习过的,无论是线性回归还是逻辑回归,都存在一个共同的缺点,当特征值过多时,计算量会变得非常庞大。假设我们有非常多的特征,如当大于100个变量,我们希望用这100个特征来构建一个非线性的多项式模型,结果将是数量非常惊人的特征组合,即便我们只采用两两特征的组合我们也会有接近5000个组合而成的特征。这对于一般的逻辑回归来说需要计算的特征太多了。普通的逻辑回归模型,不能有效地处理这么多的特征,这时
Wanidde
·
2022-05-25 07:15
机器学习
机器学习
学习
神经网络
吴恩达机器学习
——第二周学习笔记
多元线性回归(multivariatelinearregression)多元假设函数:hθ(x)=θ0+θ1X1+θ2X2+θ3X3+⋯+θnXnh(x)可以表示为其中:X0=1多元梯度下降(GradientDescentForMultipleVariables)多元梯度下降和一元的形式相同,重复求解θj直至收敛。我们可以通过让每个输入值在大致相同的范围内来加速梯度下降。这是因为θ在小范围内迅速下
Wanidde
·
2022-05-25 07:14
机器学习
机器学习
吴恩达机器学习
笔记——练习1
包引入importnumpyasnpimportmatplotlib.pylabaspltfrommpl_toolkits.mplot3dimportAxes3D问题1.1A=np.eye(5)#打印维度为5的方阵print(A)用到的函数np.eye(N,M=None,k=0,dtype=float,order=‘C’)->Any作用:返回一个矩阵,对角线上为1,其他地方为0参数N:几行参数M:
TheBugest
·
2022-05-25 07:13
笔记
机器学习
python
人工智能
【
吴恩达机器学习
】第七周课程精简笔记——支持向量机SVM
SupportVectorMachines1.LargeMarginClassification(1)OptimizationObjective(优化目标)对比一下sigmoid函数来看一下如果我们的y=1y=1y=1,想要得到hθ(x)≈1h_\theta(x)≈1hθ(x)≈1,就需要让θTx≫0\theta^Tx\gg0θTx≫0。如果我们的y=0y=0y=0,想要得到hθ(x)≈0h_\t
辰阳天宇
·
2022-05-25 07:10
#
吴恩达机器学习笔记
支持向量机
机器学习
人工智能
【
吴恩达机器学习
】第六周课程精简笔记——模型评估和机器学习系统设计
EvaluatingaHypothesis1.EvaluatingaLearningAlgorithm(1)EvaluatingaHypothesisOncewehavedonesometroubleshootingforerrorsinourpredictionsby:GettingmoretrainingexamplesTryingsmallersetsoffeaturesTryingaddi
辰阳天宇
·
2022-05-25 07:40
#
吴恩达机器学习笔记
机器学习
人工智能
【
吴恩达机器学习
】Week5 编程作业ex4——神经网络学习
NeuralNetwork1.VisualizingthedatadisplayData.mfunction[h,display_array]=displayData(X,example_width)%DISPLAYDATADisplay2Ddatainanicegrid%[h,display_array]=DISPLAYDATA(X,example_width)displays2Ddata%st
辰阳天宇
·
2022-05-25 07:39
#
吴恩达机器学习笔记
机器学习
神经网络
人工智能
【
吴恩达机器学习
】第五周课程精简笔记——代价函数和反向传播
CostFunctionandBackpropagation(代价函数和反向传播)1.CostFunctionLet’sfirstdefineafewvariablesthatwewillneedtouse:L=totalnumberoflayersinthenetworksl=numberofunits(notcountingbiasunit)inlayerlK=numberofoutputun
辰阳天宇
·
2022-05-25 07:39
#
吴恩达机器学习笔记
机器学习
概率论
线性代数
【
吴恩达机器学习
】第四周课程精简笔记——神经网络
NeuralNetworks1.ModelRepresentationILet’sexaminehowwewillrepresentahypothesisfunctionusingneuralnetworks.Ataverysimplelevel,neuronsarebasicallycomputationalunitsthattakeinputs(dendrites)aselectricalin
辰阳天宇
·
2022-05-25 07:38
#
吴恩达机器学习笔记
机器学习
人工智能
深度学习
吴恩达机器学习
笔记——第一章
每学完一章都来写一篇博客,用来总结回顾和反思。一、机器学习的一些简单应用我们可以利用计算机实现基础的功能:例如计算A到B的最短路径。但是网页搜索、垃圾邮件的过滤、图片识别等功能需要应用机器学习的技术,总体来说分成五个方面1、数据挖掘,例如分析用户的点击量来分析用户习惯,更好的了解用户2、对于某些无法直接编写代码的场景,例如无人机自动驾驶3、NLP自然语言处理4、个性推荐5、AI,像人的大脑一样二、
莫陌莫墨
·
2022-05-25 07:03
机器学习
机器学习
吴恩达
监督学习
无监督学习
笔记
吴恩达机器学习
第五周学习笔记及编程作业答案
神经网络的学习一、理论基础1.代价函数假设神经网络的训练样本有个,每个包含一组输入和一组输出信号,表示神经网络层数,表示每层的neuron个数(表示输出层神经元个数),代表最后一层中处理单元的个数。将神经网络的分类定义为两种情况:二类分类和多类分类regularizedlogisticregressioncostfunction:在神经网络中,我们可以有很多输出变量,我们的ℎ()是一个维度为的向量
欢欢吖
·
2022-05-25 07:31
神经网络
算法
机器学习
深度学习
吴恩达机器学习
第六周学习笔记及编程作业答案
一、理论基础1.评估一个假设为了检验算法是否过拟合,我们将数据分成训练集和测试集,通常用70%的数据作为训练集,用剩下30%的数据作为测试集(训练集和测试集均要含有各种类型的数据,所以要对数据进行“洗牌”,然后再分成训练集和测试集)。2.模型选择和交叉验证集使用交叉验证集来择一个更能适应一般情况的模型,即:使用60%的数据作为训练集,使用20%的数据作为交叉验证集,使用20%的数据作为测试集模型选
欢欢吖
·
2022-05-25 07:01
深度学习
机器学习
吴恩达机器学习
——第五周学习笔记
神经网络代价函数(CostFunction)正则化逻辑回归的代价函数:神经网络的代价函数:L:是神经网络架构的层数Sl:l层的单元个数K:输出单元的个数sigmoid函数:defsigmoid(z):return1/(1+np.exp(-z))前向传播函数:#前向传播函数defforward_propogate(X,theta1,theta2):m=X.shape[0]#m是X的行数a1=np.i
Wanidde
·
2022-05-25 07:17
机器学习
学习
机器学习
神经网络
python
吴恩达机器学习
学习笔记 --- 逻辑回归 + 正则化
逻辑回归【分类问题||y为离散值】(1)使用线性回归解决分类问题【使用线性回归解决逻辑回归不是一个很好的办法】(2)假设函数【通过sigmoid函数,使得h(x)的值在0~1之间】(3)假设函数输出的含义【h(x):当输入为x时,输出为y的概率】(4)逻辑回归的决策边界【选择一个值作为决策边界的判断值,例如下图选的是0.5】【h(x)对应的线就是决策边界,与参数有关,不是训练集的属性】(5)非线性
奔跑的星黛露
·
2022-05-23 07:43
机器学习
学习
《
吴恩达机器学习
》14 降维(PCA算法)
降维(PCA算法)前言一、算法应用1、数据压缩2、数据可视化二、主成分分析(PCA)1、问题2、算法三、应用建议1、选择主成分的数量2、数据压缩还原3、应用总结前言这一章节开始介绍第二种非监督学习的算法——降维。所谓的降维顾名思义就是将多维数据降到低维数据的算法,降维方法分为线性和非线性降维,非线性降维又分为基于核函数和基于特征值的方法。线性降维的方法有PCA、ICA、LDA等,非线性降维方法有基
JockerWong
·
2022-05-18 07:57
机器学习
吴恩达
机器学习
降维
PCA
线性降维
Python
吴恩达机器学习
作业 8 -异常检测和推荐系统
编程作业8-异常检测和推荐系统在本练习中,我们将使用高斯模型实现异常检查算法,并将其以用于检查网络上的故障服务器。我们还将看到如何协作过滤构建推荐系统,并将其应用于电影推荐数据集。Anomalydetection(异常检测)我们的第一个任务是使用高斯模型来检测数据集中未标记的示例是否应被歧视为异常。我们有一个简单的二维数据集开始,以帮助可视化该算法正在做什么。importnumpyasnpimpo
Puzzle harvester
·
2022-05-17 07:16
机器学习
python
机器学习
聚类
吴恩达机器学习
课程笔记
part1监督学习定义给算法一个数据集,其中包含了“正确答案”,算法的目的是给出更多的正确答案重要前提监督学习假设数据是独立同分布产生的监督学习假设输入X与输出Y遵循联合概率分布P(X,Y)监督学习与非监督学习的主要区别是,在非监督学习中,类别信息是不被提前知道的,在学习的过程中使用的训练样本通常不具有标记信息无监督学习定义只给算法一个数据集,但是不给数据集的正确答案,由算法自行分类。无监督学习中
mossfan
·
2022-05-15 07:45
深度学习
机器学习
人工智能
算法
吴恩达机器学习
-神经网络实现多分类(手写数字识别)
代码:importnumpyasnpimportmatplotlib.pyplotasplt#引入scipy库来读取matlab文件importscipy.ioassiofromscipy.optimizeimportminimize#获取数据data=sio.loadmat('ex3data1.mat')#取出X和Yraw_X=data['X']raw_Y=data['y']X=np.inser
setTimeout()
·
2022-05-13 08:23
python
机器学习
吴恩达机器学习
-检测异常服务器
代码:importnumpyasnpimportscipy.ioassioimportmatplotlib.pyplotaspltmat=sio.loadmat('ex8data1.mat')print(mat.keys())#XXvalyvalX=mat['X']#(307,2)Xval,yval=mat['Xval'],mat['yval']#(307,2)(307,1)#绘制初始图像plt.
setTimeout()
·
2022-05-13 08:23
python
机器学习
吴恩达机器学习
-给一个二维数据集,使用k-means进行聚类
代码:importnumpyasnpimportscipy.ioassioimportmatplotlib.pyplotasplt#获取数据data1=sio.loadmat('ex7data2.mat')print(data1.keys())X=data1['X']#(300,2)#初始数据可视化plt.scatter(X[:,0],X[:,-1])plt.show()#获取每个样本所属类别de
setTimeout()
·
2022-05-13 08:23
python
机器学习
吴恩达机器学习
笔记02—什么是机器学习
week1的第3个视频这次视频虽然也只是6分多钟,但是干货不少。主要有三个知识点:机器学习的定义;(这是本次视频的重点内容)机器学习算法的分类;(本次视频只是引子,后续课程会更详细介绍)本系列课程的优点。(软广告)1机器学习的定义:机器学习领域的创始人ArthurSamuel(亚瑟·塞缪尔)早在1959年就给机器学习(MachineLearning,ML)下了定义:机器学习是这样的一个研究领域,它
讲编程的高老师
·
2022-05-09 07:47
机器学习
机器学习
人工智能
算法
机器学习(一)
图片来自
吴恩达机器学习
课程。什么是机器学习?机器程序从经验E中学习解决某一任务T进行某一性能度量P,通过P测定在T上的表现因经验而提高。
可怜的赵三胖
·
2022-05-09 07:42
机器学习
吴恩达机器学习
作业二:利用逻辑回归模型预测一个学生是否被学校录取 ,二分类问题(python实现)
吴恩达机器学习
作业二:利用逻辑回归模型预测一个学生是否被学校录取(python实现)该文是针对
吴恩达机器学习
逻辑回归章节作业任务一,利用逻辑回归模型预测一个学生是否被学校录取,区别于任务二中利用正则化逻辑回归模型预测来自制造工厂的微芯片是否通过质量保证见博客
墨玲珑
·
2022-05-02 07:00
机器学习
python
python
逻辑回归
分类
机器学习
【
吴恩达机器学习
笔记详解】第三章 机器学习数学基础(线代)
3.1矩阵和向量矩阵是指由数字组成的矩阵陈列,并且写在方括号内。如下图实际上矩阵可以说是二维数组的另外一种说法。矩阵的维度:行乘上列为矩阵的维度下面再介绍向量一个向量是一种特殊的矩阵,向量是只有一列的矩阵如图所示,向量y是一个4×1的矩阵,也通常称它为4维,右下角代表着两种不同的向量元素表示方法,左边是以1开始的,右边是以0开始的,像数组一样,我们通常使用左边这个从1开始的来表示。另外大写字母通常
爱冒险的梦啊
·
2022-04-27 07:05
机器学习
数据挖掘
人工智能
深度学习
神经网络
吴恩达机器学习
笔记6——logistic回归加入正则项
一、梯度下降算法时logistic回归加入正则化logistic回归加入正则项:【注意】看起来梯度下降的公式与线性回归的一样,但其实这里的h(x)与线性回归里的不同二、更高级的优化算法的正则化logistic回归求解用这些函数fminunc…输出的θ是对应的minJ(θ)的值。
babychrislee3
·
2022-04-26 07:00
机器学习
机器学习
逻辑回归
机器学习入门之线性回归与逻辑回归
梯度下降的线性回归多元线性回归梯度下降正规方程梯度下降与正规方程的比较逻辑回归LogisticRegression决策边界代价函数使用梯度下降多分类问题过拟合与欠拟合正则化线性回归中的正则化逻辑回归中的正则化小结前言本文为
吴恩达机器学习
课程的笔记系列第一篇
小菜羊~
·
2022-04-03 07:28
机器学习
机器学习
上一页
15
16
17
18
19
20
21
22
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他