E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达机器学习:week2
吴恩达机器学习
作业——K-means聚类
将K-means算法用于图片压缩(减少颜色数量,只保留最普遍的颜色)1.练习K-means(找到最近的聚类中心)X样本数300*2,找到离前三个样本距离最近的聚类中心(三个),并标明位置(第几个聚类中心离样本最近)fprintf('Findingclosestcentroids.\n\n');K=3;%3Centroidsinitial_centroids=[33;62;85];idx=findC
helloC:
·
2019-09-07 23:38
机器学习
吴恩达机器学习
—应用实例:图片文字识别(15)
1.问题描述和流程图有一张图片,要求识别图片中的所有字符工作流程是:1)文本检测(将图片扫描一遍):获得包含了文本的文本框2)字符分割:从文本框中分割出各个字符3)字符分类(识别):字符分割中得到的只是一个个字符图形,在字符分类阶段,才能真正知道该字符类别。步骤:1.文字侦测(Textdetection)——将图片上的文字与其他环境对象分离开来2.字符切分(Charactersegmentatio
翔燕
·
2019-08-30 20:30
机器学习--吴恩达
吴恩达机器学习
图片文字识别
神经网络学习算法
本文为《
吴恩达机器学习
》课程笔记神经网络学习NeuralNerworksLearning模型表示pic1.png上面表达式中代表第的第个激活单元,代表第层到第层权重矩阵。
susion哒哒
·
2019-08-28 21:00
吴恩达机器学习
——一元线性回归(1)
1.课程部分1.1基本概念(1)训练集—由训练样例(trainingexample)组成的集合就是训练集(trainingset),其中(x,y)是一个训练样例,(x(i),y(i))是第i个训练样例。(2)假设函数—用学习算法对训练集数据训练,可以得到假设函数(HypothesisFunction),单变量线性回归的假设函数为:hθ(x)=θ0+θ1xh_θ(x)=θ_0+θ_1xhθ(x)=θ
翔燕
·
2019-08-26 22:55
机器学习--吴恩达
吴恩达课程笔记及习题
机器学习
一元线性回归
吴恩达机器学习
—课后作业—Matlab函数
1.画3D曲线及等高线linspace(d1,d2,n);%在d1,d2之间产生n个等差数据surf(x,y,z);%以x,y,z为坐标轴画3D图surfc(x,y,z):%以x,y,z为坐标轴画3D图(加等高线)contour(x,y,z);%画等高线2.求解最优化问题optimset('参数1','参数1值',’参数2‘,’参数2值);%该函数返回一个结构体,包含各种设置:迭代次数,结束条件等
hlhsugoi
·
2019-08-22 17:58
吴恩达机器学习
笔记(六)——支持向量机
支持向量机1概述支持向量机(SupportVectorMachine,SVM)是一类按监督学习(supervisedlearning)方式对数据进行二元分类的广义线性分类器(generalizedlinearclassifier),其决策边界是对学习样本求解的最大边距超平面(maximum-marginhyperplane)。以逻辑回归为起点得到支持向量机。2代价函数代价函数的主体由log函数变成
tedist
·
2019-08-21 20:04
机器学习
吴恩达
Andrew
Ng
机器学习
支持向量机
笔记 :归纳总结 (一)
文章目录资料分割线分割线特征工程损失函数目标检测传统目标检测R-CNNSPPNetFastR-CNN数据结构与算法资料决策边界(decisionboundary)logistic回归,以及决策边界与回归的区别
吴恩达机器学习
笔记
chen_holy
·
2019-08-21 09:37
AI
Andrew Ng-深度学习-第二门课-
week2
(优化算法)
从GD出发梳理优化算法的演变和各个优化算法的优缺点。1.梯度下降:1.1批量梯度下降(batchgradientdescent)每次迭代更新参数,在整个数据集上计算所有的梯度。θ=θ−η⋅∇θJ(θ)\theta=\theta-\eta\cdot\nabla_{\theta}J(\theta)θ=θ−η⋅∇θJ(θ)缺点:更新速度慢;内存限制,容易超出;无法在线更新模型,即增加训练样本;1.2随机
linxid
·
2019-08-21 08:48
人工智能
机器学习
吴恩达机器学习
---总结
吴老师机器学习公开课完结,本篇博客是基于自己的理解对整个课程内容进行回顾并梳理,由于博主实力有限,可能会有一些理解不到位或者有误的地方,希望大家能指出,理性讨论与交流。综合来看,整个课程可以分成一下四个大块,本篇博客也将按照以下四个模块来谈一些自己的理解。监督学习;无监督学习;特殊主题;实际建立机器学习系统的一些建议。首先来看,机器学习系统整体可以分为监督学习和无监督学习两个部分,主要在于数据集的
DO-VIS
·
2019-08-19 21:29
机器学习
吴恩达机器学习
第三周------(2)神经网络向前传播算法识别手写数字(Python实现)
声明:本人为机器学习初学者,此博文纯为个人学习总结之用,难免出现纰漏错误之处,欢迎各位批评指正,不惜吝教!编程环境:Anaconda3,Python3.7编程练习介绍在本练习中,您将使用与之前编程作业(逻辑回归识别手写数字)中相同的训练集,从而实现神经网络向前传播算法的手写数字识别。神经网络相比较逻辑回归而言,能够表示非线性假设的复杂模型。而逻辑回归不能形成更复杂的假设,因为它只是一个线性分类器.
YanlongFight
·
2019-08-15 20:59
MachineLearning
神经网络和深度学习WU
Week2
神经网络基础1.二分分类例子:识别图片中是否有猫,有输出1否则输出0。计算机储存图片通过RGB,即用三个矩阵分别储存red、green和blue的像素值,以常见64*64为例,从而用一个64*64*3的矩阵储存一张图片。计算机对图片的储存如何用一个特征向量(列向量)来表示这个像素矩阵?按照视频中的说明,先读取red矩阵的像素,逐行读取,以上图为例,读为,接着读取green矩阵的像素,仍是逐行读取,
xiaobaoma
·
2019-08-07 09:07
李沛彤7月复盘
Week1:备考
Week2
:和老妈一起西北旅行Week3:旅行归来,超级累,又感冒又上火,休息了一周多才缓过来。中间又去参加了4天的培训。Week4:等来考编成绩,没有通过。
李沛彤
·
2019-07-31 21:10
week2
(7.22―7.28)周复盘|时间无需管理,也不能管理,更重要的是管理好自己
李笑来在《把时间当做朋友》中说到:“用正确的方法做正确的事”,她认为时间不能管理,一天24小时,再怎么样也不会变成48小时,重要的是自己怎么去利用这仅有的24小时,能让它发挥最大利用!图片发自App一、生活这周生活过的有点乱,赶,累。星期三从深圳坐16多小时火车到了桐城,一下火车就感觉到了天气的炎热。呆在家里一天没出门,也没吃饭,晚上收拾整理了下,洗头洗澡看了会书。由于晚上睡得比较晚导致第一天睡过
彩云627
·
2019-07-31 19:42
吴恩达机器学习
-编程练习-ex6.1
本节练习是为了应用SVM算法,并灵活运用C和gamma参数首先load数据集并plot#----------------------------part1---------------------------##读取数据1,并将数据整理成可识别的格式path='C:\\Users\Huanuo\PycharmProjects\ml\ex6_svm\ex6\ex6data1.mat'm=loadma
onesmile5137
·
2019-07-29 16:15
吴恩达机器学习
-笔记-支持向量机
SVM是继logistic回归之后,andrewNG老师讲的又一个分类算法。其实吧,听下来,结合之前的课程,大致有了这样一个感觉。所谓算法,大同小异,都由如下几个部分构成:基本模型:这个一般都很简单直接,比如SVM,在二维数据集上理解,其实就是最大间距分类器,这条线上和每一点的距离最远。SVM这里,其实就是在在高阶多项式的基础上,构建了一个新的函数,就是相似度函数,又叫核函数。然后,用核函数来定义
onesmile5137
·
2019-07-26 17:54
2019-07-18
【
Week2
本周作业4】主题:脱困四问拆页来源:《跃迁》P.234【导语】人生不如意时常有,我们难免会陷入困境之中,如何才能摆脱困境,请学习今天的脱困四问。
踏雪寻梅abc
·
2019-07-18 21:26
2019-07-17
【
Week2
本周作业3】主题:移情聆听拆页来源:《高效能人士的七个习惯》P259【导语】倾听是一种技巧,《高效能人士的七个习惯》里给我们介绍了移情聆听,一种正确的沟通方式,今天我们来学习一下移情聆听的拆页
踏雪寻梅abc
·
2019-07-17 21:54
从目标实现度看时间安排▶︎ 7月
week2
复盘◀︎
7月第2周,终于想法子做了周复盘。巴拉一周做了啥,真的挺好的,之前看他们写那么带劲儿,感受不到其中的魅力,自己动手了才发现呢。不做不知道,一做吓一跳,好多事情不统计不知道,还是做了许多事情。也有许多事情没有完成,离目标远着呢。如果再细统计下去,按照完成度高低的任务属性,可以分析出自己的懒惰和偏好程度了。时间宝贵,能统计出个数,就非常直观了。1.论文进展︎预计完成10H,实际完成9H35分,完成度✅
LAI太太
·
2019-07-16 00:36
week2
:History: The First Internet - NSFNet
(一)SupercomputersJustifyaNationalNetwork(超级计算机证明了国家网络的合理性)1.HistoryThroughSupercomputing(超级计算机的历史)计算机间的连接拨号连接:20世纪70年代拨号连接已经非常普遍,通过拨号连接可以连接到远距离的电脑,数据是被编码成声音进行传输。使用租用线路:从电话公司可以获取到两个点之间的连接。这种方式无需拨号,因为它总
Boketto
·
2019-07-15 14:00
吴恩达机器学习
梯度下降Gradient Descent以多元线性回归为例
LinearRegressionwithMultipleVariables将一元推广至多元,θ为多元函数各因子前的系数。J为消费函数;实践中梯度下降的指南1.特征值规范化2.LearningRateα梯度下降解决回归问题的优势
TigerrrRose
·
2019-07-09 12:43
机器学习
吴恩达
Week2
TSdemo:1.通过map、filter实例理解函数式编程2.学会用yarn指令运行jest测试代码3.使用命令行代码将更新push到gitlab上UesdinAWS:Lambda:无服务器计算服务S3:对象存储服务DynamoDB:键/值和文档数据库-->NoSQL数据库服务CloudFront:内容分发服务,依靠edgelocation,使客户最小延迟的拿到数据Route53:云[域名系统(
松子_484f
·
2019-07-09 10:59
吴恩达机器学习
(Machine Learning)课程总结笔记---Week9
文章目录0概述1.课程大纲2.课程内容2.1异常检测2.1.1什么是异常检测2.1.2高斯分布2.1.3高斯分布算法2.1.4评估系统2.1.5异常检测和监督学习对比2.1.6特征选择2.1.7多元高斯分布2.1.7.1多元高斯分布模型2.1.7.2多元高斯分布的变化2.1.7.2.1改变$\Sigma$2.1.7.2.1改变$\mu$2.1.7.3算法流程2.1.7.4多元高斯分布模型与一般高斯
csdn_SUSAN
·
2019-07-08 18:05
机器学习
Week 1 & Week 2 机器学习入门,线性回归案例和matlab实现
Week1&Week2摘要Week1和
Week2
介绍了机器学习的基础知识,分类和几个基本的概念。以线性回归开篇,用房价预测的具体案例,应用了这些概念。配套练习,则是使用Matlab对以上案例进行实现。
KDLin
·
2019-07-07 15:23
吴恩达机器学习
K-Mean算法和PCA算法的MATLAB实现(对应ex7练习)
K-mean算法前言:K-mean算法的思想和实现都不难,整个算法主要分为两步:1、找到与每个样本距离最近的质心,将样本与最近的质心关联起来;2、根据每个质心的关联样本,重新计算质心的位置。下面是吴恩达课件里的说明,说的十分清晰。在实现K-mean算法的过程中,质心的初始位置一般是随机选取样本点作为质心。例如需要将样本分为K类,那么从样本中随机选取K个样本作为初始化质心即可。样本的初始位置选取与最
非常满意
·
2019-07-06 21:05
机器学习
K-mean算法
机器学习
吴恩达
PCA
吴恩达机器学习
作业python实现(ex7,kmean,PCA)
1、简单kmeanimportnumpyasnpimportmatplotlib.pyplotaspltfromscipy.ioimportloadmatfromex71_findimportfindClosestCentroidsfromex71_computeimportcomputeClosestCentroidsdata=loadmat('ex7data2.mat')X=data['X']
无限未来16
·
2019-07-06 11:16
机器学习
吴恩达机器学习
支持向量机的MATLAB实现(对应ex6练习)
前言:本章作业有两个实现,一个是分类问题,有点类似于之前做过的分类,但是不同在这里是使用SVM实现。对于SVM的思想配套视频已经讲的比较清楚了,在练习中也是直接给出了关键代码,我们需要实现的只是部分。另一个是垃圾邮件的分类,也是使用SVM实现,这部分自己敲的内容很少。总之,本节很多关键代码吴恩达都直接给出,需要自己动手实现的都不难,重点是阅读这些核心代码。gaussianKernel.m这里先给出
泥河
·
2019-07-05 15:05
机器学习
支持向量机
吴恩达
ex6作业
吴恩达机器学习
-编程练习-ex2.2
1.实现sigmoidfunction在开始练习实际的代价函数之前,我们先回顾一下logistic的基本假设和Sigmoid函数:函数G即Sigmoid函数,这个Sigmoid函数的形式是:然后我们在python中实现一下这个算法,令这个算法对单值和矩阵都生效python中实现sigmoid函数:importnumpyasnpdefsigmoid(x):y=1/(1+np.exp(-x))retu
onesmile5137
·
2019-06-27 15:49
Week 2
Week2
这周我们ed系统上有1个Quiz和5个Challenges。[TOC]Quiz2这个Quiz依旧写好了输入输出的代码。
璇冰酱是个麻瓜
·
2019-06-24 15:34
吴恩达机器学习
笔记-神经网络参数的反向传播算法(七)
神经网络参数的反向传播算法在后面的内容中,主要会讲神经网络在分类问题中的应用代价函数在上面的神经网络中,存在有m个训练集;这里使用L来表示神经网络的层数,在上面的这个神经网络中间,L=4;最后使用S_L来表示在L层的单元数(即神经元个数,在这中间并不包含偏差单元),这里就能够知道S_4=S_L=4在分类问题中,可以分成两类:二元分类、多类别分类二元分类:最后的值只能为0或者1,输出单元只有一个(就
Escid
·
2019-06-24 09:25
吴恩达
机器学习笔记
吴恩达机器学习笔记
吴恩达机器学习
笔记-神经网络学习(六)
神经网络学习非线性假设在前面的课程中,我们了解到了使用逻辑回归的方法对数据进行二分类,在特征仅仅存在两个类别的时候,通常是一个不错的选择,但是现实情况下,对于分类的问题大多都是大于2个特征的,此时是否也是可以使用前面所讲的逻辑回归方法呢?例如:对于不同的房子,我们收集上来可能存在有100个特征,预测这些房子在未来的5年时间里被卖掉的概率对于上面这样的问题,如果我们使用逻辑回归的方式进行处理,首先将
Escid
·
2019-06-23 16:42
吴恩达机器学习笔记
吴恩达机器学习
笔记-正则化(五)
正则化过拟合问题这里我们举例说房价相关的问题,如下图所示对于房价的预测,我们知道房屋的面积在增大的同时,其房价本身是趋于平缓的,此时使用一个直线拟合这样一个房价的信息显然是不合理的,此时拟合出来的数据会造成欠拟合;同样,如果按照图三的内容进行构图,曲线尽可能的经过了每一个点,这样的情况则会造成过拟合对于一个函数,它应该具备能够应用到新数据上,如果是过拟合的状态下,这样的数据并不能很好的适应于新的数
Escid
·
2019-06-23 12:20
吴恩达机器学习笔记
吴恩达机器学习
作业TensorFlow实现(ex6,Mnist分类问题)
1、线性SVM,检查C对分界线的影响#-*-coding:utf-8-*-"""CreatedonFriJun2116:05:252019@author:无限未来"""importtensorflowastfimportnumpyasnpimportmatplotlib.pyplotaspltfromscipy.ioimportloadmatsvmC=1BATCH_SIZE=51data=load
无限未来16
·
2019-06-21 20:55
机器学习
TensorFlow Specialization Course 2 学习笔记
Week2
给出解决过拟合问题的一种解决方法:数据增强。Week3主要讲迁移学习,同时使用数据增强,另外介绍了另一种解决过拟合问题的方法:Dropout。
JSerenity
·
2019-06-21 00:43
TensorFlow
吴恩达机器学习
笔记-多变量线性回归(三)
多变量线性回归多功能在前面的章节中间,我们了解到的就是仅仅一个变量影响一个结果的情况,但是现实情况下,一个结果可能是由多个不同的因素影响的,例如房屋的价格,并不仅仅与房屋的面积相关,还可能与其他的因素相关在上图中,我们能够看到影响的因素features的n=4,中间对于不同的数据存在不同的表达方式对于上面这样的情况,就不能简单的使用前面讲到的h方程进行计算了,如下所示可以发现,此时多了更多的the
Escid
·
2019-06-17 21:51
吴恩达
机器学习笔记
吴恩达机器学习笔记
吴恩达机器学习
笔记-线性代数回顾(二)
线性代数回顾矩阵矩阵是由数字组成的矩形阵列,写在方括号中对于上面的左右两个矩阵,我们能够将其分别写成4x2(4行2列)的矩阵和2x3(2行3列)的矩阵给定了一个矩阵之后,如果想要表示中间某一个具体的值,使用如下的方式进行表示向量向量是只有一列的矩阵上图通常我们也称其为4维的向量,同样如果想要获取这个向量中间不同的值,可以使用如下的方式加法对于矩阵的加法,需要注意只有相同矩阵才能进行相加,并且结果也
Escid
·
2019-06-17 21:18
吴恩达机器学习笔记
吴恩达机器学习
笔记-单变量线性回归(一)
单变量线性回归模型描述首先最开始,引入的就是单变量的线性回归,对于一组训练数据,我们希望通过一条直线能够将这些数据进行一个拟合如上,我们希望通过这条直线进行拟合我们给定一组训练集,进行一些数据的准备之后,形成一个假设函数h,之后通过这个函数就能够去预测一些新给定的值,对于这个函数就是上图右边的这个方程(表示的即为一条直线)代价函数上面我们仅仅是给定了一个直线方程的模型,如果想要得到一个确定的方程,
Escid
·
2019-06-17 20:47
吴恩达机器学习笔记
吴恩达机器学习
作业TensorFlow实现(ex3,Mnist分类问题)
1、使用逻辑回归解决Mnist分类#-*-coding:utf-8-*-"""CreatedonThuJun1318:13:082019@author:无限未来"""importtensorflowastfimportnumpyasnpimportscipy.ioasscioimportrandomimportmatplotlib.pyplotasplt#读取数据data_path='G:\Dee
无限未来16
·
2019-06-13 22:06
机器学习
吴恩达机器学习
课后作业Python实现:第一周:线性回归
单变量线性回归题目描述:在本部分的练习中,您将使用一个变量实现线性回归,以预测食品卡车的利润。假设你是一家餐馆的首席执行官,正在考虑不同的城市开设一个新的分店。该连锁店已经在各个城市拥有卡车,而且你有来自城市的利润和人口数据。您希望使用这些数据来帮助您选择将哪个城市扩展到下一个城市。数据集链接(数据在第一个文件内,需要自己查找):ex1data.txt下面为读入数据和数据的展示importnump
Mr_Ivory
·
2019-06-11 17:04
机器学习
吴恩达机器学习
作业TensorFlow实现(ex2,逻辑回归)
1、逻辑回归tips:源数据需要进行归一化(我这里直接/100,因为原始数据范围为0-100)更换了优化方法,需要一定的训练次数,不然一定几率出现欠拟合#-*-coding:utf-8-*-"""CreatedonMonJun1020:04:032019@author:无限未来"""importtensorflowastfimportnumpyasnpimportmatplotlib.pyplot
无限未来16
·
2019-06-10 23:16
机器学习
吴恩达机器学习
作业TensorFlow实现(ex1,线性回归)
#-*-coding:utf-8-*-importtensorflowastfimportnumpyasnpimportmatplotlib.pyplotaspltplotdata={"batchsize":[],"loss":[]}defmoving_average(a,w=10):iflen(a)
无限未来16
·
2019-06-10 19:00
机器学习
吴恩达机器学习
----大规模机器学习
吴恩达机器学习
教程学习笔记(15/16)吴恩达教授(AndrewNg)的机器学习可以说是一门非常重视ML理论基础的课程,做做一些简单的笔记加上个人的理解。
huapusi
·
2019-06-09 13:35
吴恩达机器学习笔记
大规模机器学习
吴恩达
吴恩达机器学习
----异常检测
吴恩达机器学习
教程学习笔记(13/16)吴恩达教授(AndrewNg)的机器学习可以说是一门非常重视ML理论基础的课程,做做一些简单的笔记加上个人的理解。
huapusi
·
2019-06-06 12:45
吴恩达机器学习笔记
吴恩达
异常检测
吴恩达机器学习
ex6:支持向量机
1、支持向量机(supportvectormachines,SVMs)本小节使用SVM处理二维数据。1.1、数据集1使用二维数据集,其中数据可视化图形上用“+“表示y=1,用“o”表示y=0。代码:>>load('ex6data1.mat');>>plotData(X,y);共有数据m=51个,每个数据有n=2个特征值。SVM中损失函数为:此处f表示为选择不同的核函数(kernel)对应的特征参数
梅文化_2019
·
2019-06-03 10:58
机器学习
吴恩达机器学习
第七周测试和编程作业
代码:https://github.com/LiuZhe6/AndrewNGMachineLearning文章目录测验:SupportVectorMachines第一题第二题第三题第四题第五题编程作业:SupportVectorMachines作业一:GaussianKernel作业二:Parameters(C,sigma)forDataset3作业三:EmailPreprocessing作业四:
一叶知秋Autumn
·
2019-05-28 20:18
机器学习
机器学习
机器学习
吴恩达机器学习
:偏差与方差、欠拟合与过拟合
在
吴恩达机器学习
课程的第86课时中,讲解了偏差和方差与欠拟合和过拟合的关系。1、偏差与方差的概念先看下网上关于偏差与方差的例子。该例子可以理解为射击打靶。
梅文化_2019
·
2019-05-28 16:34
机器学习
吴恩达机器学习
第六周测验及编程作业和选做题
代码:https://github.com/LiuZhe6/AndrewNGMachineLearning文章目录测验1:AdviceforApplyingMachineLearning第一题第二题第三题第四题第五题编程作业:RegularizedLinearRegressionandBias/Variance作业一:RegularizedLinearRegressionCostFunction作
一叶知秋Autumn
·
2019-05-24 10:19
机器学习
机器学习
吴恩达机器学习
(Machine Learning)课程总结笔记---Week3
文章目录0概述1.课程大纲2.课程内容2.1逻辑回归假设模型的引入2.1.1分类问题2.1.2逻辑回归的假设表示2.1.3假设函数的决策边界2.2逻辑回归的求解2.2.1定义损失函数2.2.2简化损失函数并使用梯度下降求解2.2.3高级优化算法2.2.3.1高级优化算法的优缺点2.2.3.2使用高级优化算法(fminunc)2.3多分类问题2.3.1One-vs-all2.4正则化引入2.4.1欠
csdn_SUSAN
·
2019-05-21 08:43
机器学习
吴恩达机器学习
(Machine Learning)课程总结笔记---Week 2
文章目录0概述1.课程大纲2.课程内容2.1多元线性回归2.2多元线性回归的梯度下降2.3特征缩放2.4学习率2.5构造特征以及多项式回归2.6正规方程法2.6.1正规方程的推导2.6.2可逆性分析2.6.3梯度下降和正规方程的比较2.7Octave简明教程3.课后编程作业4.总结0概述 在week1中,我们学习了单变量线性回归,但现实世界往往不是简单的一元函数就能够表示的,因此基于Week1的
csdn_SUSAN
·
2019-05-16 09:49
机器学习
吴恩达机器学习
第二次编程作业----LogisticsRegression
作业的问题的背景PDF文件里面有,不再赘述。1:LogisticRegression1.1Visualizingthedatadata=load('ex2data1.txt');X=data(:,[1,2]);y=data(:,3);plotData(X,y);%plotData文件按照pdf给的去补全就行。如图:1.2Implementation补全sigmoid.m文件。根据公式可得:g=1.
Wison618
·
2019-05-15 16:16
机器学习
2018-2019-2 20165221课程设计学习-
week2
2018-2019-220165221课程设计学习-
week2
目录深入了解SM3算法Python学习笔记-turtle库每种语言具体分析本周学习总结码云链接一.深入了解SM3算法算法概述:对长度为l(limportturtle
呼噜噜。。
·
2019-05-15 11:00
上一页
34
35
36
37
38
39
40
41
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他