E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达机器学习:week1
吴恩达机器学习
----降维
吴恩达机器学习
教程学习笔记(12/16)吴恩达教授(AndrewNg)的机器学习可以说是一门非常重视ML理论基础的课程,做做一些简单的笔记加上个人的理解。
huapusi
·
2022-06-12 07:57
吴恩达机器学习笔记
吴恩达
数据降维
主成分分析算法
PCA
吴恩达机器学习
课程-第七周
1.支持向量机SVM1.1优化目标在逻辑回归中,针对一个样本的损失函数如下:−y(i)log(hθ(x(i))+(1−y(i))log(1−hθ(x(i))=−y(i)log(11+e−θT⋅x)+(1−y(i))log(1−11+e−θT⋅x)-y^{(i)}log(h_\theta(x^{(i)})+(1-y^{(i)})log(1-h_\theta(x^{(i)})=-y^{(i)}log(
J___code
·
2022-06-10 09:52
机器学习
机器学习
支持向量机
核函数
吴恩达机器学习
课程-第五周
1.神经网络的学习1.1代价函数假设神经网络的训练样本有mmm个,每个包含一组输入xxx和一组输出信号yyy,LLL表示神经网络的总层数,sls_lsl表示在第lll层的神经元个数(不包括biasunit):在逻辑回归中使用到的代价函数如下,它只有一个输出变量:J(θ)=−1m[∑i=1my(i)log(hθ(x(i)))+(1−y(i))log(1−hθ(x(i)))]+λ2m∑j=1nθj2J
J___code
·
2022-06-03 22:45
机器学习
机器学习
神经网络
反向传播
吴恩达机器学习
课程-第二周
1.多变量线性回归1.1多维特征在第一周的学习中探讨了单变量的回归模型,现在对房价模型增加更多的特征,例如房间数楼层等,构成一个含有多个变量的模型,模型中的特征为(x1,x2,...xn)(x_1,x_2,...x_n)(x1,x2,...xn)。xj(i)x^{(i)}_jxj(i)代表特征矩阵中第iii行的第jjj个特征,也就是第iii个训练实例的第jjj个特征综上,hθ(x)=θ0x0+θ1
J___code
·
2022-06-03 22:15
机器学习
机器学习
多变量
正规矩阵
吴恩达机器学习
课程-第四周
1.非线性假设对于下图中的两类点,如果只考虑两个特性,需要使用非线性的多项式才能很好的建立一个分类模型,如g(θ0+θ1x1+θ2x2+θ3x1x2+θ4x12x2+...)g(\theta_0+\theta_1x_1+\theta_2x_2+\theta_3x_1x_2+\theta_4x_1^2x_2+...)g(θ0+θ1x1+θ2x2+θ3x1x2+θ4x12x2+...):但是假如存在成
J___code
·
2022-06-03 22:15
机器学习
机器学习
神经网络
前向传播
吴恩达机器学习
课程-第三周
1.逻辑回归1.1分类问题首先要明确,逻辑回归解决的是分类问题。比如电子邮件是否为垃圾邮件等都属于分类问题1.1.1二元分类将因变量可能属于的两个类分别称为正类(用1表示)和负类(用0表示),还是使用线性回归去处理该分类问题,得到以下图像:其中,当hθ(x)≥0.5h_\theta(x)\ge0.5hθ(x)≥0.5,预测y=1y=1y=1;当hθ(x)1/hθ(x)1/h_\theta(x)1/
J___code
·
2022-06-03 22:36
机器学习
机器学习
逻辑回归
正则化
二元分类
多分类
[机器学习系列二]TensorFlow入门
,相关课程可以参考
吴恩达机器学习
系列课程。
925781609
·
2022-06-03 12:17
吴恩达机器学习
:聚类与降维 (K-means & PCA)总结与作业
聚类与降维(一)聚类:简介K均值算法(K-MeansAlgorithm)1.1K-Means优化1.2随机初始化1.3选择聚类数(二)K-means聚类作业2.1计算K-均值2.1.1寻找最近的质心2.1.2计算质心平均值2.1.3可视化处理2.2寻找最优K2.2.1随机初始化2.2.2中心点的选择2.2.3决定聚类数K(三)用scikit-learn学习K-Means聚类3.1参数介绍3.2K值
Belouga-
·
2022-05-31 07:36
吴恩达机器学习
(八)聚类与降维(K-Means,PCA)
∗∗∗点击查看:
吴恩达机器学习
——整套笔记+编程作业详解∗∗∗\color{#f00}{***\点击查看\:
吴恩达机器学习
\——\整套笔记+编程作业详解\***}∗∗∗点击查看:
吴恩达机器学习
——整套笔记
Fun'
·
2022-05-31 07:46
机器学习
pca降维
kmeans算法
聚类
机器学习
算法
吴恩达机器学习
作业7 - K-means和PCA主成分分析(Python实现)
吴恩达机器学习
作业7-K-means和PCA主成分分析(Python实现)Introduction在本实验中,将实现K-means聚类算法,并将其应用于图像压缩。
Phoenix_ZengHao
·
2022-05-31 07:35
机器学习
python
机器学习
sklearn
聚类
scikit-learn
吴恩达机器学习
作业7
pcasigma=X'*X/m;[U,S,V]=svd(sigma);projectDataU_reduce=U(:,1:K);Z=X*U_reduce;recoverDataU_reduce=U(:,1:K);X_rec=Z*U_reduce';findClosestCentroidsm=size(X,1);fori=1:mind_k=zeros(K,1);forj=1:Kind_k(j)=su
月暗云霄
·
2022-05-30 09:19
机器学习
机器学习
【机器学习】python实现
吴恩达机器学习
作业合集(含数据集)
学习感言:从3.7第一天开始,到今天4.4,一个多月的时间,陆续完成了听课,代码实现和总结博客,过程些许艰难,作为一个刚入门的学习者,收获了很多。总结一下这一段时间的学习过程吧。后面的学习方向还在思考。目录1.0线性回归预测2.0线性可分logistic逻辑回归2.1线性不可分logistic逻辑回归3.0logistic逻辑回归手写多分类问题3.1神经网络正向传播4.0神经网络反向传播(BP算法
—Xi—
·
2022-05-30 09:18
机器学习
大数据
python
回归
人工智能
吴恩达机器学习
系列课程作业ex7 matlab实现
目录findClosestCentroids.mcomputeCentroids.mpca.mprojectData.mrecoverData.mfindClosestCentroids.mfunctionidx=findClosestCentroids(X,centroids)%FINDCLOSESTCENTROIDScomputesthecentroidmembershipsforeverye
d7901699
·
2022-05-30 09:17
机器学习
matlab
人工智能
吴恩达机器学习
——笔记
(考研数学一基础,仅供个人纪录,大纲为主,其中python代码
[email protected]
笔记)一、基础知识1监督学习/无监督学习2单变量线性回归(1)模型表示(2)代价函数(costfunction)——残差平方和(3)直观理解——图示法(4)梯度下降——求解全局最小值学习率α;梯度下降算法;梯度下降中的线性回归正规方程法——向量化3多变量线性回归(1)多维特征(2)多变量梯度下降
张刻迟
·
2022-05-25 07:24
笔记——深度学习入门
吴恩达机器学习
笔记(八)——深入神经网络
注:在吴恩达老师的机器学习的视频中,神经网络部分更多的讨论是在分类方面的应用。1.代价函数首先,我们拥有如下的神经网络架构,如下图所示:然后我们拥有如下的训练集,如下图所示:接下来我们需要定义两个概念:L=神经网络的总层数sl=第l层中的单元数(不包括偏置单元)如上图s1=3、s2=5并且从之前的知识,我们也了解到:当进行二元分类的时候,输出层会只有一个单元。当进行多元分类的时候,输出层会有多个单
XHHP
·
2022-05-25 07:53
吴恩达机器学习笔记
神经网络
吴恩达
机器学习
反向传播算法
吴恩达机器学习
——第三周学习笔记
二元分类(BinaryClassfication)分类,一种方法是使用线性回归,将所有大于0.5的预测映射为1,将所有小于0.5的预测映射为0。然而,这种方法并不能很好地工作,因为分类实际上不是一个线性函数。分类问题和回归问题一样,只是我们现在想要预测的值只有少量离散值。现在,我们将使用二元分类问题,其中y只能有两个值,0和1。如:y∈{0,1},0代表良性肿瘤,1代表恶性肿瘤收到一封邮件,0代表
Wanidde
·
2022-05-25 07:47
机器学习
学习
python
机器学习
吴恩达机器学习
——第四周学习笔记
之前学习过的,无论是线性回归还是逻辑回归,都存在一个共同的缺点,当特征值过多时,计算量会变得非常庞大。假设我们有非常多的特征,如当大于100个变量,我们希望用这100个特征来构建一个非线性的多项式模型,结果将是数量非常惊人的特征组合,即便我们只采用两两特征的组合我们也会有接近5000个组合而成的特征。这对于一般的逻辑回归来说需要计算的特征太多了。普通的逻辑回归模型,不能有效地处理这么多的特征,这时
Wanidde
·
2022-05-25 07:15
机器学习
机器学习
学习
神经网络
吴恩达机器学习
——第二周学习笔记
多元线性回归(multivariatelinearregression)多元假设函数:hθ(x)=θ0+θ1X1+θ2X2+θ3X3+⋯+θnXnh(x)可以表示为其中:X0=1多元梯度下降(GradientDescentForMultipleVariables)多元梯度下降和一元的形式相同,重复求解θj直至收敛。我们可以通过让每个输入值在大致相同的范围内来加速梯度下降。这是因为θ在小范围内迅速下
Wanidde
·
2022-05-25 07:14
机器学习
机器学习
吴恩达机器学习
笔记——练习1
包引入importnumpyasnpimportmatplotlib.pylabaspltfrommpl_toolkits.mplot3dimportAxes3D问题1.1A=np.eye(5)#打印维度为5的方阵print(A)用到的函数np.eye(N,M=None,k=0,dtype=float,order=‘C’)->Any作用:返回一个矩阵,对角线上为1,其他地方为0参数N:几行参数M:
TheBugest
·
2022-05-25 07:13
笔记
机器学习
python
人工智能
【
吴恩达机器学习
】第七周课程精简笔记——支持向量机SVM
SupportVectorMachines1.LargeMarginClassification(1)OptimizationObjective(优化目标)对比一下sigmoid函数来看一下如果我们的y=1y=1y=1,想要得到hθ(x)≈1h_\theta(x)≈1hθ(x)≈1,就需要让θTx≫0\theta^Tx\gg0θTx≫0。如果我们的y=0y=0y=0,想要得到hθ(x)≈0h_\t
辰阳天宇
·
2022-05-25 07:10
#
吴恩达机器学习笔记
支持向量机
机器学习
人工智能
【
吴恩达机器学习
】第六周课程精简笔记——模型评估和机器学习系统设计
EvaluatingaHypothesis1.EvaluatingaLearningAlgorithm(1)EvaluatingaHypothesisOncewehavedonesometroubleshootingforerrorsinourpredictionsby:GettingmoretrainingexamplesTryingsmallersetsoffeaturesTryingaddi
辰阳天宇
·
2022-05-25 07:40
#
吴恩达机器学习笔记
机器学习
人工智能
【
吴恩达机器学习
】Week5 编程作业ex4——神经网络学习
NeuralNetwork1.VisualizingthedatadisplayData.mfunction[h,display_array]=displayData(X,example_width)%DISPLAYDATADisplay2Ddatainanicegrid%[h,display_array]=DISPLAYDATA(X,example_width)displays2Ddata%st
辰阳天宇
·
2022-05-25 07:39
#
吴恩达机器学习笔记
机器学习
神经网络
人工智能
【
吴恩达机器学习
】第五周课程精简笔记——代价函数和反向传播
CostFunctionandBackpropagation(代价函数和反向传播)1.CostFunctionLet’sfirstdefineafewvariablesthatwewillneedtouse:L=totalnumberoflayersinthenetworksl=numberofunits(notcountingbiasunit)inlayerlK=numberofoutputun
辰阳天宇
·
2022-05-25 07:39
#
吴恩达机器学习笔记
机器学习
概率论
线性代数
【
吴恩达机器学习
】第四周课程精简笔记——神经网络
NeuralNetworks1.ModelRepresentationILet’sexaminehowwewillrepresentahypothesisfunctionusingneuralnetworks.Ataverysimplelevel,neuronsarebasicallycomputationalunitsthattakeinputs(dendrites)aselectricalin
辰阳天宇
·
2022-05-25 07:38
#
吴恩达机器学习笔记
机器学习
人工智能
深度学习
吴恩达机器学习
笔记——第一章
每学完一章都来写一篇博客,用来总结回顾和反思。一、机器学习的一些简单应用我们可以利用计算机实现基础的功能:例如计算A到B的最短路径。但是网页搜索、垃圾邮件的过滤、图片识别等功能需要应用机器学习的技术,总体来说分成五个方面1、数据挖掘,例如分析用户的点击量来分析用户习惯,更好的了解用户2、对于某些无法直接编写代码的场景,例如无人机自动驾驶3、NLP自然语言处理4、个性推荐5、AI,像人的大脑一样二、
莫陌莫墨
·
2022-05-25 07:03
机器学习
机器学习
吴恩达
监督学习
无监督学习
笔记
吴恩达机器学习
第五周学习笔记及编程作业答案
神经网络的学习一、理论基础1.代价函数假设神经网络的训练样本有个,每个包含一组输入和一组输出信号,表示神经网络层数,表示每层的neuron个数(表示输出层神经元个数),代表最后一层中处理单元的个数。将神经网络的分类定义为两种情况:二类分类和多类分类regularizedlogisticregressioncostfunction:在神经网络中,我们可以有很多输出变量,我们的ℎ()是一个维度为的向量
欢欢吖
·
2022-05-25 07:31
神经网络
算法
机器学习
深度学习
吴恩达机器学习
第六周学习笔记及编程作业答案
一、理论基础1.评估一个假设为了检验算法是否过拟合,我们将数据分成训练集和测试集,通常用70%的数据作为训练集,用剩下30%的数据作为测试集(训练集和测试集均要含有各种类型的数据,所以要对数据进行“洗牌”,然后再分成训练集和测试集)。2.模型选择和交叉验证集使用交叉验证集来择一个更能适应一般情况的模型,即:使用60%的数据作为训练集,使用20%的数据作为交叉验证集,使用20%的数据作为测试集模型选
欢欢吖
·
2022-05-25 07:01
深度学习
机器学习
吴恩达机器学习
——第五周学习笔记
神经网络代价函数(CostFunction)正则化逻辑回归的代价函数:神经网络的代价函数:L:是神经网络架构的层数Sl:l层的单元个数K:输出单元的个数sigmoid函数:defsigmoid(z):return1/(1+np.exp(-z))前向传播函数:#前向传播函数defforward_propogate(X,theta1,theta2):m=X.shape[0]#m是X的行数a1=np.i
Wanidde
·
2022-05-25 07:17
机器学习
学习
机器学习
神经网络
python
吴恩达机器学习
学习笔记 --- 逻辑回归 + 正则化
逻辑回归【分类问题||y为离散值】(1)使用线性回归解决分类问题【使用线性回归解决逻辑回归不是一个很好的办法】(2)假设函数【通过sigmoid函数,使得h(x)的值在0~1之间】(3)假设函数输出的含义【h(x):当输入为x时,输出为y的概率】(4)逻辑回归的决策边界【选择一个值作为决策边界的判断值,例如下图选的是0.5】【h(x)对应的线就是决策边界,与参数有关,不是训练集的属性】(5)非线性
奔跑的星黛露
·
2022-05-23 07:43
机器学习
学习
《
吴恩达机器学习
》14 降维(PCA算法)
降维(PCA算法)前言一、算法应用1、数据压缩2、数据可视化二、主成分分析(PCA)1、问题2、算法三、应用建议1、选择主成分的数量2、数据压缩还原3、应用总结前言这一章节开始介绍第二种非监督学习的算法——降维。所谓的降维顾名思义就是将多维数据降到低维数据的算法,降维方法分为线性和非线性降维,非线性降维又分为基于核函数和基于特征值的方法。线性降维的方法有PCA、ICA、LDA等,非线性降维方法有基
JockerWong
·
2022-05-18 07:57
机器学习
吴恩达
机器学习
降维
PCA
线性降维
2022-05-16 正念训练营Day2-坐姿和呼吸的基础
【正念训练营-三周学会调节情绪】
Week1
身心回到当下Day2坐姿和呼吸的基础时间:周一午间一个好的坐姿,是正念冥想的基础。确保每次练习都处于舒适、稳定地坐姿中,才不会影响内心的探索。
南下飞鸿踏雪泥
·
2022-05-17 15:47
Python
吴恩达机器学习
作业 8 -异常检测和推荐系统
编程作业8-异常检测和推荐系统在本练习中,我们将使用高斯模型实现异常检查算法,并将其以用于检查网络上的故障服务器。我们还将看到如何协作过滤构建推荐系统,并将其应用于电影推荐数据集。Anomalydetection(异常检测)我们的第一个任务是使用高斯模型来检测数据集中未标记的示例是否应被歧视为异常。我们有一个简单的二维数据集开始,以帮助可视化该算法正在做什么。importnumpyasnpimpo
Puzzle harvester
·
2022-05-17 07:16
机器学习
python
机器学习
聚类
2022-05-15 正念训练营Day1-我为什么来到这里
【正念训练营-三周学会调节情绪】
Week1
身心回到当下Day1我为什么来这里时间:周六早上8点半一、前测:根据近一个月表现测评,焦虑水平低(35分)、抑郁水平低(44分)、疑病表现无(35分)、愤怒反应弱
南下飞鸿踏雪泥
·
2022-05-16 14:06
吴恩达机器学习
课程笔记
part1监督学习定义给算法一个数据集,其中包含了“正确答案”,算法的目的是给出更多的正确答案重要前提监督学习假设数据是独立同分布产生的监督学习假设输入X与输出Y遵循联合概率分布P(X,Y)监督学习与非监督学习的主要区别是,在非监督学习中,类别信息是不被提前知道的,在学习的过程中使用的训练样本通常不具有标记信息无监督学习定义只给算法一个数据集,但是不给数据集的正确答案,由算法自行分类。无监督学习中
mossfan
·
2022-05-15 07:45
深度学习
机器学习
人工智能
算法
吴恩达机器学习
-神经网络实现多分类(手写数字识别)
代码:importnumpyasnpimportmatplotlib.pyplotasplt#引入scipy库来读取matlab文件importscipy.ioassiofromscipy.optimizeimportminimize#获取数据data=sio.loadmat('ex3data1.mat')#取出X和Yraw_X=data['X']raw_Y=data['y']X=np.inser
setTimeout()
·
2022-05-13 08:23
python
机器学习
吴恩达机器学习
-检测异常服务器
代码:importnumpyasnpimportscipy.ioassioimportmatplotlib.pyplotaspltmat=sio.loadmat('ex8data1.mat')print(mat.keys())#XXvalyvalX=mat['X']#(307,2)Xval,yval=mat['Xval'],mat['yval']#(307,2)(307,1)#绘制初始图像plt.
setTimeout()
·
2022-05-13 08:23
python
机器学习
吴恩达机器学习
-给一个二维数据集,使用k-means进行聚类
代码:importnumpyasnpimportscipy.ioassioimportmatplotlib.pyplotasplt#获取数据data1=sio.loadmat('ex7data2.mat')print(data1.keys())X=data1['X']#(300,2)#初始数据可视化plt.scatter(X[:,0],X[:,-1])plt.show()#获取每个样本所属类别de
setTimeout()
·
2022-05-13 08:23
python
机器学习
吴恩达机器学习
笔记02—什么是机器学习
week1
的第3个视频这次视频虽然也只是6分多钟,但是干货不少。
讲编程的高老师
·
2022-05-09 07:47
机器学习
机器学习
人工智能
算法
机器学习(一)
图片来自
吴恩达机器学习
课程。什么是机器学习?机器程序从经验E中学习解决某一任务T进行某一性能度量P,通过P测定在T上的表现因经验而提高。
可怜的赵三胖
·
2022-05-09 07:42
机器学习
吴恩达机器学习
作业二:利用逻辑回归模型预测一个学生是否被学校录取 ,二分类问题(python实现)
吴恩达机器学习
作业二:利用逻辑回归模型预测一个学生是否被学校录取(python实现)该文是针对
吴恩达机器学习
逻辑回归章节作业任务一,利用逻辑回归模型预测一个学生是否被学校录取,区别于任务二中利用正则化逻辑回归模型预测来自制造工厂的微芯片是否通过质量保证见博客
墨玲珑
·
2022-05-02 07:00
机器学习
python
python
逻辑回归
分类
机器学习
【
吴恩达机器学习
笔记详解】第三章 机器学习数学基础(线代)
3.1矩阵和向量矩阵是指由数字组成的矩阵陈列,并且写在方括号内。如下图实际上矩阵可以说是二维数组的另外一种说法。矩阵的维度:行乘上列为矩阵的维度下面再介绍向量一个向量是一种特殊的矩阵,向量是只有一列的矩阵如图所示,向量y是一个4×1的矩阵,也通常称它为4维,右下角代表着两种不同的向量元素表示方法,左边是以1开始的,右边是以0开始的,像数组一样,我们通常使用左边这个从1开始的来表示。另外大写字母通常
爱冒险的梦啊
·
2022-04-27 07:05
机器学习
数据挖掘
人工智能
深度学习
神经网络
吴恩达机器学习
笔记6——logistic回归加入正则项
一、梯度下降算法时logistic回归加入正则化logistic回归加入正则项:【注意】看起来梯度下降的公式与线性回归的一样,但其实这里的h(x)与线性回归里的不同二、更高级的优化算法的正则化logistic回归求解用这些函数fminunc…输出的θ是对应的minJ(θ)的值。
babychrislee3
·
2022-04-26 07:00
机器学习
机器学习
逻辑回归
c++怎么打印出句子中的各个单词_理解Pytorch中LSTM的输入输出参数含义
本文不会介绍LSTM的原理,具体可看如下两篇文章UnderstandingLSTMNetworksDeepLearning.ai学习笔记(五)序列模型--
week1
循环序列模型1、举个栗子在介绍LSTM
weixin_39828457
·
2022-04-24 07:07
input限制输入长度
lstm处理时序数据结构图
lstm结构图
ReID中PCB模型输出维度
怎样输出input内容自带单位
【解题周报】
week1
解题周报@笔试强训
解题周报Day011.组队竞赛2.删除公共字符Day021.排序子序列2.倒置字符串单词不倒Day031.输出字符串中连续最长数字串2.数组中出现次数超过一半的数字Day041.计算糖果2.进制转换Day051.统计回文2.连续子数组最大和Day061.欧几里得摆蛋糕2.字符串转整数认真付出,是对自己的祝福,温暖守护美好生活之路,进步与你同步,每一天全情投入,累积一些小幸福,就这样稳稳地一步一步~
呀小边同学
·
2022-04-04 13:10
累积一些小幸福系列_解题报告
开发语言
算法
c++
机器学习入门之线性回归与逻辑回归
梯度下降的线性回归多元线性回归梯度下降正规方程梯度下降与正规方程的比较逻辑回归LogisticRegression决策边界代价函数使用梯度下降多分类问题过拟合与欠拟合正则化线性回归中的正则化逻辑回归中的正则化小结前言本文为
吴恩达机器学习
课程的笔记系列第一篇
小菜羊~
·
2022-04-03 07:28
机器学习
机器学习
支持向量机
同之前一样,仍然是机器学习部分,西瓜书南瓜书系列笔记,以二者为主,
吴恩达机器学习
和统计学习方法为辅,对支持向量机做了一些简单得笔记。仍然还是先附上纸质笔记,然后会更精炼得写到博客上来。
若洲的算法与AI
·
2022-03-31 08:44
机器学习
机器学习
人工智能
python
吴恩达机器学习
笔记——踩了最多坑的Pycharm 导入numpy,pandas和matplotlib
吴恩达机器学习
笔记——踩了最多坑的Pycharm导入numpy,pandas和matplotlib在用python学习吴恩达的机器学习中(https://www.kesci.com/home/column
I_secream
·
2022-03-16 14:32
python
matlab
机器学习
西瓜书/南瓜书第一二章总结
接下来的一段时间,会以西瓜书、南瓜书为主,
吴恩达机器学习
与统计学习方法为辅,对原来学过的一些机器学习算法做一个总结,重点是底层原理和公式推导。
若洲的算法与AI
·
2022-03-16 07:48
机器学习
机器学习
人工智能
算法
机器学习_吴恩达-总
如数据标注无监督学习:给一大堆数据,让机器自己去寻找当中的规律_2021级_第7周_学习总结21.10.18-21.10.24周学习任务:100%回顾
吴恩达机器学习
前4章节10%神经网络学习一、回顾机器学习前
魔芋小灰菜
·
2022-03-15 17:41
#
日记
机器学习
人工智能
python
【机器学习】聚类分析与主成分分析(附例题源码)
回归【机器学习】神经网络【机器学习】支持向量机文章目录K-means算法直观理解优化目标随机初始化聚类中心个数(K)的选择降维理解降维主成分分析(PCA)直观理解算法步骤压缩重现主成分数量选择注意事项
吴恩达机器学习
练习
大拨鼠
·
2022-03-12 08:42
机器学习
机器学习
人工智能
pca降维
聚类算法
上一页
16
17
18
19
20
21
22
23
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他