E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达机器学习:week2
(吴恩达笔记 2-1)——支持向量机SVM
svm能对训练集以外的数据做出很好的分类决策【注】以下内容均为本人在学习
吴恩达机器学习
视频时所作笔记,所以较吴恩达的字幕而言相对简单。
灰羽吖
·
2020-08-03 06:37
机器学习
与SVM的初识(1):吴恩达视频中的SVM简介
吴恩达视频中的SVM简介该篇主要参考自
吴恩达机器学习
视频,部分图片摘自pluskid大神的博客支持向量机系列。同时对于那些和我一样的初学者大力推荐一下pluskid大神的博客,感觉讲得非常清楚。
ALazyGuy
·
2020-08-03 05:12
机器学习
[
吴恩达机器学习
笔记]12支持向量机5SVM参数细节
12.支持向量机觉得有用的话,欢迎一起讨论相互学习~吴恩达老师课程原地址参考资料斯坦福大学2014机器学习教程中文笔记by黄海广12.5SVM参数细节标记点选取标记点(landmark)如图所示为l(1),l(2),l(3)l^{(1)},l^{(2)},l^{(3)}l(1),l(2),l(3),设核函数为高斯函数,其中设预测函数y=1ifθ0+θ1f1+θ2f2+θ3f3≥0\theta_0+
武科大许志伟
·
2020-08-03 05:12
机器学习
机器学习基础
吴恩达机器学习
笔记第七周 SVM支持向量机
由逻辑回归引入SVM:支持向量机或者简称SVM,在学习复杂的非线性方程时,提供了一种更为清晰更加强大的方式,我们在逻辑回归中所用的假设函数h(x)的曲线如图:当y=1时,我们希望假设函数能趋向于1,即z>=0,当预测y=0时,我们希望假设函数能趋向于0,即z=1.对于负样本y=0,我们希望cost2(z)=0,即z=0在应用中我们可能需要标记点l1,l2,l3或者更多,我们如何来选择这些标记点呢。
Raven_shhy
·
2020-08-03 05:51
吴恩达机器学习
SVM
核函数为了获得上图所示的判定边界,我们的模型可能是我们可以用一系列的新的特征f来替换模型中的每一项。例如令得到hθ(x)=f1+f2+...+fn。然而,除了对原有的特征进行组合以外,有没有更好的方法来构造f1,f2,f3?我们可以利用核函数来计算出新的特征。高斯核函数为实例x中所有特征与地标l(1)之间的距离的和。我们通常是根据训练集的数量选择地标的数量,即如果训练集中有m个实例,则我们选取m个
swan777
·
2020-08-03 04:39
笔记
SVM
吴恩达机器学习
吴恩达机器学习
视频笔记
专业词汇英文中文英文中文unsupervisedlearning无监督学习clusteringalgorithm(无监督)聚类算法trainingset训练集hypothesis假设函数classificationproblem分类问题univariate单变量terminology术语parameters参数correspondto拟合squaredifference平方差costfunctio
厂花李茜茜
·
2020-08-03 04:08
ml
吴恩达机器学习
笔记七 支持向量机svm
1.线性svm1.1代价函数 吴恩达的svm课程中由logisitic回归讲起,将logistic回归中的代价函数转换成图中的形式。刚开始的时候我自己很疑惑这个地方:为什么代价函数要变成这个样子又为什么代价为零的地方要是z=1和−1z=1和−1,不是z=2,3,4……z=2,3,4…… 直到好好研究了一番svm的几何意义才明白这样做的意义,下面一一道来。1.1.1代价函数为什么要变成这个样子
qsdzxp
·
2020-08-03 04:02
机器学习
吴恩达机器学习
笔记---正规方程及推导
前言1.正规方程(NormalEquation)2.正规方程不可逆性及其推导过程正规方程(NormalEquation)到目前为止,对模型参数θ0\theta_{0}θ0,θ1\theta_{1}θ1,θ2\theta_{2}θ2…θn\theta_{n}θn的求解都是使用梯度下降的方式,这种迭代算法需要经过很多次迭代才能收敛到全局最小值。而我们知道求解函数取最小值时候的解可以利用求导,并令倒数为
ML0209
·
2020-08-03 04:20
机器学习
斯坦福大学
吴恩达机器学习
教程中文笔记——week7——支持向量机
第7周文章目录第7周@[toc]十二、支持向量机(SupportVectorMachines)12.1优化目标12.2大边界的直观理解12.3大边界分类背后的数学(选修)12.4核函数112.5核函数212.6使用支持向量机十二、支持向量机(SupportVectorMachines)12.1优化目标参考视频:12-1-OptimizationObjective(15min).mkv到目前为止,你
laiczhang
·
2020-08-03 04:39
吴恩达机器学习笔记
svm支持向量机-
吴恩达机器学习
基于python
文章目录1线性svm1.1导入数据1.2visualizedata1.3svm算法1.3.1训练1.3.2预测2高斯核函数2.1高斯核函数2.2导入数据2.3visualizedata2.4trybuild-inGaussianKernelofsklearn2.4.1训练2.4.2预测2.4.3画出边界(利用等高线)3寻找最优参数$C$&$\sigma$3.1导入数据3.2visualizedat
吃菜拌胡椒
·
2020-08-03 03:48
#
吴恩达机器学习
吴恩达机器学习
线性回归代价函数推导
多元线性回归的代价函数推导决策函数:hθ(x)=θ1x1+θ2x2+...+θnxn=∑i=1nθixi=θTxh_{\theta}(x)=\theta_1x_1+\theta_2x_2+...+\theta_nx_n=\sum_{i=1}^{n}\theta_ix_i=\theta^Txhθ(x)=θ1x1+θ2x2+...+θnxn=∑i=1nθixi=θTx令有m个样本,对于每个样本:y(i
Taoist_Nie
·
2020-08-03 03:33
吴恩达机器学习
第五道编程题SVM
1.数据集下载MNIST数据集http://yann.lecun.com/exdb/mnist/index.html读取数据的方法参考https://blog.csdn.net/tracer9/article/details/512536042.libsvm工具包下载地址:https://www.csie.ntu.edu.tw/~cjlin/libsvmtools/notes:该工具包版本号是3.
面包儿
·
2020-08-03 03:33
吴恩达机器学习
笔记(6)SVM支持向量机
这一部分是对
吴恩达机器学习
SVM支持向量机内容的总结,主要分为以下几个部分1.线性核函数的SVM2.高斯核函数的SVM3.利用SVM进行垃圾邮件检测这一部分的代码非常繁琐,这里仅展示其功能及运行过程,对代码细节不再深究
深度啊学习啊
·
2020-08-03 03:49
吴恩达机器学习
笔记——指数分布族&广义线性模型&逻辑回归概率模型推导
此文章解释指数分布族,广义重点内容线性模型,以及逻辑回归的概率解释推导。1.指数分布族指数分布族即为指数形式的概率分布:其中,T(y)为充分统计量,tau为自然参数。大多数的概率分布都可以转化为指数分布模型,下文会有例子。2.广义线性模型广义线性模型通过指数分布族来引出。广义线性模型有三个假设:(1)y|x;θExponentialFamily(η);给定样本x与参数θ,样本分类y服从指数分布族中
BestRivenZC
·
2020-08-03 03:29
机器学习算法
吴恩达机器学习
笔记——softmax回归概率模型推导
此文章解释指数分布族,广义重点内容线性模型,以及softmax回归的概率解释推导。1.指数分布族指数分布族即为指数形式的概率分布:其中,T(y)为充分统计量,tau为自然参数。大多数的概率分布都可以转化为指数分布模型,下文会有例子。2.广义线性模型广义线性模型通过指数分布族来引出。广义线性模型有三个假设:(1)y|x;θExponentialFamily(η);给定样本x与参数θ,样本分类y服从指
BestRivenZC
·
2020-08-03 03:29
机器学习算法
海量数据挖掘MMDS
week2
: 频繁项集挖掘 Apriori算法的改进:基于hash的方法
http://blog.csdn.net/pipisorry/article/details/48901217海量数据挖掘MiningMassiveDatasets(MMDs)-JureLeskoveccourses学习笔记之关联规则Apriori算法的改进:基于hash的方法:PCY算法,Multistage算法,Multihash算法Apriori算法的改进{Alltheseextension
-柚子皮-
·
2020-08-03 02:21
海量数据挖掘MMDS
吴恩达机器学习
——学习理论,经验风险最小化(ERM),一般误差(测试误差),VC维
这一章主要是学习的理论。首先我们来关注这章主要研究的问题:1.我们在实践中针对训练集有训练误差,针对测试集有测试误差,而我们显然更关心的是测试误差。但是实际算法通常都是由训练集和模型结合,那么我们如何针对训练集的好坏来体现出测试误差的信息呢?这是我们研究的第一个问题2.是否存在某些条件,我们能否在这些条件下证明某些学习算法能够良好工作?1.符号定义写在前面,这里这把各种符号定义,如果在后文遇到对符
ChiiZhang
·
2020-08-03 01:52
机器学习
【机器学习】知识点汇总
资源:1、《统计学习方法》代码实现2、
吴恩达机器学习
课程笔记3、七月在线人工智能面试题4、Datawhale秋招机器学习算法工程师面经5、AI算法工程师手册—华校专6、机器学习十大算法系列—July专栏建议学习顺序
heimu24
·
2020-08-03 00:45
机器学习
吴恩达机器学习
笔记(10)——支持向量机SVM
一、优化目标支持向量机(SupportVectorMachine,SVM)是另一种监督式学习算法。它有时候更加的简洁和强大。我们将逻辑回归中的代价函数转化一下,并使用两段直线来尝试替代曲线,这被称作hingeloss函数。我们把第一项定义为cost1(z),第二项定义为cost0(z),那么可以说cost1(z)是当y=1时进行分类的代价函数,cost0(z)是当y=0时进行分类的代价函数。用co
阿尔基亚
·
2020-08-03 00:43
吴恩达机器学习
吴恩达机器学习
笔记 - 线性回归 & 代价函数 & 梯度下降
一、基本概念1.1机器学习的定义一个年代近一点的定义,由来自卡内基梅隆大学的TomMitchell提出,一个好的学习问题定义如下:一个程序被认为能从经验E中学习,解决任务T,达到性能度量值P,当且仅当,有了经验E后,经过P评判,程序在处理T时的性能有所提升。比如以下棋的机器学习算法为例:经验E就是程序上万次的自我练习的经验,任务T是下棋,性能度量值P是它在与一些新的对手比赛时,赢得比赛的概率。1.
登龙
·
2020-08-02 23:28
机器学习
吴恩达机器学习
第六次作业Part1: 直观认识SVM
0.综述直观认识SVM。1.LoadingandVisualizingData这是脚本%%===============Part1:LoadingandVisualizingData================%Westarttheexercisebyfirstloadingandvisualizingthedataset.%Thefollowingcodewillloadthedataset
GaoJieVery6
·
2020-08-02 22:34
机器学习
吴恩达机器学习
系列课程笔记——非监督学习
该系列笔记内容是楼主在观看课程时记录的,其中图片是视频中ppt的截图,内容仅供参考,有问题欢迎大家指出。目录1.聚类(Clustering)1.1K均值算法(K-means)——迭代算法1.1.1失真代价函数(DistortionCostFunction)1.1.2聚类中心的随机初始化1.1.3聚类数量的选择2.降维(DimensionalityReduction)2.1主成分分析法(PCA,Pr
White_lies
·
2020-08-02 22:33
#
吴恩达机器学习
吴恩达机器学习
系列课程笔记——机器学习系统设计
该系列笔记内容是楼主在观看课程时记录的,其中图片是视频中ppt的截图,内容仅供参考,有问题欢迎大家指出。目录1.误差分析1.1交叉验证错误率(CrossValidationError)1.2查准率和召唤率(Precision/Recall)1.2.1评估度量方法F~1~Score2.推荐系统2.1基于内容的推荐算法(ContentBasedRecommendations)2.2协同过滤(Colla
White_lies
·
2020-08-02 22:01
#
吴恩达机器学习
吴恩达机器学习
系列课程笔记——过拟合问题以及正则化技术
该系列笔记内容是楼主在观看课程时记录的,其中图片是视频中ppt的截图,内容仅供参考,有问题欢迎大家指出。目录1.过拟合问题(OverfittingProblem)2.正则化技术(RegularizationMethod)什么是拟合在介绍拟合前先定义两个名词:偏差和方差偏差(Bias)又称为表观误差,是指个别测定值与测定的平均值之差,它可以用来衡量测定结果的精密度高低,这里描述的是根据样本拟合出的模
White_lies
·
2020-08-02 22:01
#
吴恩达机器学习
吴恩达机器学习
系列课程笔记——神经网络
该系列笔记内容是楼主在观看课程时记录的,其中图片是视频中ppt的截图,内容仅供参考,有问题欢迎大家指出。目录1.神经元结构2.神经网络结构3.前向传播(ForwardPropagation)3.1例子3.1.1简单模型(逻辑运算)3.1.2复杂模型(多输出——分类问题)4.反向传播算法(BackpropagationAlgorithm)4.1梯度检验(GradientChecking)5.随机初始
White_lies
·
2020-08-02 22:01
#
吴恩达机器学习
吴恩达机器学习
系列课程笔记——机器学习的评估和诊断
该系列笔记内容是楼主在观看课程时记录的,其中图片是视频中ppt的截图,内容仅供参考,有问题欢迎大家指出。目录1.机器学习评估方法1.1传统标准1.2交叉验证集2.机器学习诊断法(MachineLearningDiagnostics)2.1特征数量对拟合的影响2.2正则化参数对拟合的影响2.3样本数对拟合的影响——学习曲线(LearningCurves)2.4神经网络隐藏层神经元个数对拟合的影响1.
White_lies
·
2020-08-02 22:01
#
吴恩达机器学习
吴恩达机器学习
笔记-SVM(cs229)
下面是一个最简单的SVM:分类算法:支持向量机(SVM)是一个分类算法(机器学习中经常把算法称为一个“机器”),它的目标是找到图中实线所表示的决策边界,也称为超平面(Hyperplane)支持向量(Supportvectors):支持向量就是图中虚线穿过的数据点(两个×与一个O),直观上来看,它们确定了超平面的位置——超平面与过同一类的两个支持向量(两个×)的直线平行,并且两类支持向量到超平面的距
wu740027007
·
2020-08-02 21:34
机器学习
【机器学习】
吴恩达机器学习
课程(数学推导详解)
吴恩达机器学习
课程笔记机器学习定义什么是机器学习?
infinite_with
·
2020-08-02 21:56
吴恩达机器学习
系列课程笔记——代价函数
该系列笔记内容是楼主在观看课程时记录的,其中图片是视频中ppt的截图,内容仅供参考,有问题欢迎大家指出。目录1.平方误差代价函数(SquareErrorCostFunction)2.逻辑回归代价函数(LogisticRegressionCostFunction)3.神经网络代价函数(NeuralNetworkCostFunction)4.支持向量机代价函数(SVMCostFunction)4.1偏
White_lies
·
2020-08-02 20:51
#
吴恩达机器学习
Java程序设计 北京大学 Week5互评作业
java程序设计mooc攻略单元测验互评作业考试week1测验2019冬期中测验
week2
测验
week2
互评作业2019冬期末测验week3测验week3互评作业week4测验week4互评作业week5
真实的hello world
·
2020-08-01 14:01
吴恩达机器学习
(一)——监督学习和无监督学习
在理解监督学习和无监督学习之前,我们先来聊一聊什么是机器学习(ML)?机器学习:首先呢,学习可以称为一个举一反三的过程,举个栗子:我们在学生时代经常参加的考试,考试的题目在上考场前我们未必做过,但是在考试之前我们通常都会刷很多的题目,通过刷题目学会了解题方法,因此考场上面对陌生问题也可以算出答案。机器学习的思路也类似:我们可以利用一些训练数据(已经做过的题),使机器能够利用它们(解题方法)分析未知
大鹏小站
·
2020-08-01 13:51
机器学习
OWW
WEEK2
WORDANDEXPRESSION1、getaround(在英国也用getround)Ifyougetaroundaruleorlaw,youfindawayofdoingsomethingthattheruleorlawisintendedtoprevent,withoutactuallybreakingit.避开2、primeIfyouprimesomeonetodosomething,you
初一Susie
·
2020-08-01 09:09
吴恩达机器学习
视频总结Day03之Logistic回归
1.Logistic(逻辑)线性回归是一种分类算法,常用于解决二分类问题,即结果为是/否或正/负等。解释:Logistic线性回归是将最终的输出值定义在【0,1】之间。一般线性回归的预测函数为Logistic线性回归为g(θ^t*X)g(z)=1/(1+e^-z)sigmoid函数或者logistic函数,一样的意思。2.决策边界对不同类别数据的分界线。注释:当g(z)中z>0时,y=g(z)=1
weixin_40804755
·
2020-08-01 05:24
机器学习
吴恩达机器学习
笔记三 logistic回归
1.二元分类1.1logistic模型 首先,我们需要搞清楚二元分类模型与之前的线性回归模型的区别。之前的线性回归模型是预测连续输出,对应的典型问题就是预测房价。而现在的二元分类问题是预测一个离散的输出,只关心有无,对应的典型问题就是预测有无癌症。二元分类问题只需要选取一个阈值,超过这个阈值就是y=1y=1,低于这个阈值就是y=0y=0。并且预测分析的输出最好是在[0,1][0,1]这个范围之内
qsdzxp
·
2020-07-31 23:03
机器学习
第四个90天周检视
第四个90天周检视20180318-20180324(
week2
)4.0目标1.瘦身12斤2.治愈过敏性鼻炎3.每日静心30分钟本周检视:目标完成情况:1、本周体重62.1kg,较上周低0.3KG,分析原因这周注意控制早餐和中餐的食量
susanlu
·
2020-07-31 18:50
2019-06-23 ARTS
Week2
Algorithm905.SortArrayByParityLeetCode链接classSolution{publicint[]sortArrayByParity(int[]A){intcount=A.length;int[]arr=newint[count];intleft=0;intright=count-1;for(inti=0;i这解释了为什么你需要声明self为__weak执行bloc
季末灬离殇
·
2020-07-31 16:21
Algorithmic Toolbox
week2
homework 总结
2017-12-2522:00 今天是星期一,来总结一下周日上午和今天上午耗费大约4~5h的第二周作业。主要讲述一下两大模块,分别是学习到的技能和遭遇到的坑。技能学习了程序的自动化测试的具体实现过程。以c++代码为例,代码具体如下:#include//1voidtest_solution(){assert(fibonacci_fast(3)==2);//2.1assert(fibonacci_f
爱跑步的coder
·
2020-07-30 18:49
吴恩达机器学习
作业4:Neural Networks Learning python实现
一、总结:在实现中注意到的问题:1.在教程PDF中,第二层神经元的误差数学表示:Theta2转置后结构:(26*10)delta3的结构:(10*5000)两者做矩阵乘法后:(26*5000)Z2的结构:(25*5000)可以看见,这两者是结构上不一样是做不了点乘运算的,在实现中应该给Z2加上一行然后运算后删去。2.结果向量y的表示规则在每个example的结果向量y中,数字0标记为10,在a3中
zsiming
·
2020-07-30 13:55
吴恩达机器学习python实现
python
机器学习
Matlab
吴恩达机器学习
编程练习ex4:神经网络Neural Networks Learning
本文基于吴恩达老师第五周的练习,在这次的练习中,你将会实现神经网路的后向传播算法(BP神经网络)。作业大纲1神经网络NeuralNetworksex4.m1.1数据可视化1.2模型表示1.3前向传播和代价函数nnCostFunction.m1.4正则化代价函数2后向传播nnCostFunction.m2.1Sigmoid函数的导数sigmoidGradient.m2.2随机初始化randIniti
Zhanghp947
·
2020-07-30 10:13
算法
机器学习
神经网络
机器学习
吴恩达机器学习
线性回归练习题:多变量线性回归(octave实现)
单变量的线性回归模型就不再细说了,这里只记录多变量线性回归中几个需要实现的步骤和函数,其他内容在课程中的讲义和习题中都有详细描述。特征标准化,对应featureNormalize函数作用:消除不同特征间的量纲,提高梯度下降的速度,缩短收敛时间需要在featureNormalize.m文件中填充的代码:mu=mean(X);%计算每个特征的均值sigma=std(X);%计算每个特征的标准差X_no
爱小白兔的大懒熊
·
2020-07-30 06:23
机器学习
The Gay Genius
Week2
I.Summary图片发自AppII.ThecentralquestionQ:WhyLinYutangusethreechapterstowriteaboutWangAnshihandhisreform?A:Ifwewanttoknowsomeone,weshouldaskhisrelativesandfriends.However,ifwewanttoknowsomeonemoredeeplya
夕夜Silence
·
2020-07-29 19:25
吴恩达机器学习
笔记之监督学习
Supervisedlearning:监督学习指的就是我们给学习算法一个数据集,这个数据集由“正确答案”组成。比如房价的预测,给定一系列房子的数据,给定数据集中每个样本的正确价格,实际的售价运用学习算法,来算出更多的正确答案。用专业的术语来讲,这叫做回归问题,即试着推测出一系列连续值属性。还有一类问题叫做分类问题,比如根据一个人的外貌预测一个人是男生还是女生,预测结果是离散的,可以根据多个特征来预
iblue_coffee
·
2020-07-29 17:11
机器学习笔记
吴恩达机器学习
笔记1 初识机器学习
本章节主要介绍了监督学习和无监督学习的概念与举例,适合小白入门机器学习。1.监督学习监督学习指的就是我们给学习算法一个数据集。这个数据集由“正确答案”组成。房价问题首先给了一系列房子的数据,然后给定数据集中每个样本实际的售价,然后运用学习算法,算出更多的正确答案。这是一个回归问题,回归是指预测连续值的属性。可以用一条直线、二次函数或二阶多项式拟合数据做出预测。肿瘤问题假设想通过查看病历来推测乳腺癌
xz23333
·
2020-07-29 09:33
机器学习
机器学习
week2
Ifocusontheassociationbetweenfamilyrelationshipandthequalityofromanticrelationship.Buttherearetoomanyvariableswhichcandescribethefamilyrelationshipsohereisthelonglist.Idon'tknowhowtointegrateallthevar
SH_0a4d
·
2020-07-29 03:32
Python4周 入职培训的过程
适用于Web方向:1、Week1:读完《简明Python教程》,适应Python开发环境2、
Week2
:写个爬虫,需要深入了解re、urllib2、sqlite3、threading,Queue等几个模块
weixin_33964094
·
2020-07-28 18:50
【Deeplearning.ai 】吴恩达深度学习笔记及课后作业目录
吴恩达深度学习课程的课堂笔记以及课后作业代码下载:https://github.com/douzujun/Deep-Learning-Coursera课程1-神经网络和深度学习周数名称类型地址week1深度学习简介测验略
week2
Douzi1024
·
2020-07-27 17:50
深度学习&强化学习&进化计算 入门资源整理
吴恩达讲授的机器学习课程被广泛认为是最好的MachineLearning入门课程:
吴恩达机器学习
课程(Coursera)
吴恩达机器学习
课程(网易云课堂)如果你的时间不多
CaLMdoWN_
·
2020-07-27 17:50
深度学习
吴恩达机器学习
第一次编程作业答案+解析
第一次作业答案与解析文章目录第一次作业答案与解析前言答案+解析BasicFunction(warmUpExercise.m)Plotting(plotData.m)Cost(computeCost.m)Gradientdescent(gradientDescent.m)RestLinearregressionwithmultiplevariablesFeatureNormalization(fea
Clauria
·
2020-07-27 15:14
机器学习
【
吴恩达机器学习
】逻辑回归 Logistic Regression
逻辑回归(LogisticRegression)对于分类问题(Classificationproblem),也就是预测的变量yyy是一个离散值(比如y={0,1}y=\{0,1\}y={0,1}),可以使用**逻辑回归(LogisticRegression)**来处理。逻辑回归的假设函数满足:0≤hθ(x)≤10\leh_\theta(x)\le10≤hθ(x)≤1假设函数(HypothesisR
Elliott__
·
2020-07-16 03:12
机器学习
吴恩达机器学习
练习2:Regularized logistic regression
本小节主要练习正则化logistic分类。1、原始数据的可视化data=load('ex2data2.txt');%将数据导入data中X=data(:,[1,2]);y=data(:,3);%读取data的第1、2列为输入X,第3列为输出y(y=0或y=1)plotData(X,y);%调用plotData函数绘图holdon;xlabel('MicrochipTest1')ylabel('Mi
梅文化_2019
·
2020-07-16 03:14
机器学习
上一页
23
24
25
26
27
28
29
30
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他