E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达机器学习:week1
吴恩达机器学习
入门——神经网络
吴恩达机器学习
入门——神经网络神经网络简介工作方式简单的例子多元分类代价函数反向传播算法梯度检测随机初始化神经网络总结神经网络简介如图所示的图形分类问题,像该图的像素为50*50,如果我们采用之前学过的
qq_42100113
·
2020-08-08 20:34
吴恩达机器学习
入门——多变量线性回归
吴恩达机器学习
入门——多变量线性回归假设多元梯度下降算法特征缩放正规方程优缺点假设假设房价不仅受平方数影响,还受到房间数、年份、楼层数的影响。这样奥预估房价就是一个受多变量影响的问题。
qq_42100113
·
2020-08-08 20:34
吴恩达机器学习
入门——降维
[
吴恩达机器学习
入门——降维]降维的作用有两个:一是进行数据压缩、二是可视化。数据压缩可视化PCAPCA算法压缩重现降维的作用有两个:一是进行数据压缩、二是可视化。
qq_42100113
·
2020-08-08 20:34
机器学习
吴恩达机器学习
之支持向量机(Support Vector Machines)(一):优化目标(详细笔记,建议收藏,已有专栏)
吴恩达机器学习
栏目清单专栏直达:https://blog.csdn.net/qq_35456045/category_9762715.html文章目录支持向量机(SupportVectorMachines
汪雯琦
·
2020-08-08 19:36
【吴恩达机器学习】
吴恩达机器学习
入门——支持向量机
[
吴恩达机器学习
入门——支持向量机]优化目标核函数运用SVM优化目标这是一个logistic回归的例子,如果y=1,我们也希望模型得出来的hθ\thetaθ(x)也应为1;如果y=0,我们也希望模型得出来的
qq_42100113
·
2020-08-08 11:41
吴恩达机器学习
6——机器学习算法改进、系统设计
吴恩达机器学习
6一、机器学习算法改进1.机器学习算法评价1.1评估模型1.2模型选择和交叉验证集2.偏差与方差2.1诊断偏差和方差2.2正则化和偏差/方差2.3学习曲线2.4选择修正方法二、机器学习系统设计
old sweet ᝰ
·
2020-08-07 21:17
机器学习
吴恩达机器学习
7——支持向量机SVM
吴恩达机器学习
7一、SVM直观理解1.SVM引入逻辑回归2.大边界分类器SVM3.SVM原理二、核函数1.核函数原理和概念2.SVM和核函数结合的计算步骤三、使用SVM一、SVM直观理解1.SVM引入逻辑回归与逻辑回归和神经网络相比
old sweet ᝰ
·
2020-08-07 21:17
机器学习
吴恩达机器学习
作业5——偏差与方差
在前半部分的练习中,你将实现正则化线性回归,以预测水库中的水位变化,从而预测大坝流出的水量。在下半部分中,您将通过一些调试学习算法的诊断,并检查偏差v.s.方差的影响。importnumpyasnpimportmatplotlib.pyplotaspltfromscipy.ioimportloadmatimportscipy.optimizeasoptdefplotData():"""瞧一瞧数据长
old sweet ᝰ
·
2020-08-07 21:46
机器学习
吴恩达机器学习
作业4(python实现)
利用神经网络预测手写数字importnumpyasnpimportmatplotlib.pyplotaspltfromscipy.ioimportloadmatimportscipy.optimizeasoptfromsklearn.metricsimportclassification_report#这个包是评价报告fromsklearn.preprocessingimportOneHotEnc
old sweet ᝰ
·
2020-08-07 21:46
机器学习
吴恩达机器学习
作业6——SVM
importnumpyasnpimportpandasaspdimportmatplotlib.pyplotaspltimportseabornassbfromscipy.ioimportloadmatfromsklearnimportsvmdefplotData(X,y):plt.figure(figsize=(8,5))plt.scatter(X[:,0],X[:,1],c=y.flatten
old sweet ᝰ
·
2020-08-07 21:46
机器学习
期末ppt:
week1
, 2
1.ComputerNetworkdefinition:“Aconnectedcollectionofhardwareandsoftwarethatallowsinformationexchangeandresourcesharing”2.AdvantageofComputerNetworks:SharingResource:suchasequipment,programs,anddataIncr
qq_44482764
·
2020-08-07 17:04
计算机网络
手把手教你机器学习之入门(1)(吴恩达听课笔记)
**引言:**你可以把这个当成教程,也可以把这当成视频笔记总结来看,这是本人看了周志华老师的机器学习(‘西瓜书’下载)和吴恩达老师的机器学习视频(
吴恩达机器学习
)进行总结的机器学习算法的知识。
HDU-大白
·
2020-08-07 16:47
机器学习
吴恩达机器学习笔记
机器学习
微信小程序周历表预约课程
01:00),点击‘+’添加一行开始时间和结束时间,点击‘-’删除最后一行wxml星期一jsPage({/***页面的初始数据*/data:{fromlist:[],index:0,lists:[0],
week1
勉后之幸
·
2020-08-06 11:52
微信小程序
吴恩达机器学习
作业6—支持向量机
题目概述:在本练习中,我们将使用高斯核函数的支持向量机(SVM)来构建垃圾邮件分类器数据集1我们先在2D数据集上实验importnumpyasnpimportpandasaspdimportmatplotlib.pyplotaspltimportseabornassbfromscipy.ioimportloadmatraw_data=loadmat('E:/shujuji/ex6data1.mat
kingsure001
·
2020-08-05 22:45
机器学习
机器学习
内核
python
支持向量机
HGAME 2020
week1
我的博客http://caoyi.site/WebCosmos的博客1.看提示去GitHub上找这个网站的源代码,搜索CosmosHgame就可以找到,点开3commits,点开newfile就可以看到:base64解码:aGdhbWV7ZzF0X2xlQGtfMXNfZGFuZ2VyMHVzXyEhISF92.base64解码得到flag。hgame{g1t_le@k_1s_danger0us_
Am473ur
·
2020-08-05 19:54
CTF
Coursera
吴恩达机器学习
课程 第2周作业代码
ComputeCost.mfunctionJ=computeCost(X,y,theta)%COMPUTECOSTComputecostforlinearregression%J=COMPUTECOST(X,y,theta)computesthecostofusingthetaasthe%parameterforlinearregressiontofitthedatapointsinXandy%I
爱写代码的娃娃鱼
·
2020-08-05 14:47
机器学习
吴恩达机器学习
(十二)主成分分析(降维、PCA)
目录0.前言1.主成分分析(PCA)2.主成分分析PCA的流程3.低维空间维度的选择4.主成分分析使用方式学习完吴恩达老师机器学习课程的降维,简单的做个笔记。文中部分描述属于个人消化后的理解,仅供参考。如果这篇文章对你有一点小小的帮助,请给个关注喔~我会非常开心的~0.前言数据的特征数量,又称作向量的维度。降维(dimensionalityreduction)是通过一些方法,减少数据的特征数量,以
zhq9695
·
2020-08-04 10:06
机器学习
吴恩达机器学习
笔记 —— 19 应用举例:照片OCR(光学字符识别)
吴恩达机器学习
笔记——19应用举例:照片OCR(光学字符识别)本章讲述的是一个复杂的机器学习系统,通过它可以看到机器学习的系统是如何组装起来的;另外也说明了一个复杂的流水线系统如何定位瓶颈与分配资源。
xing halo
·
2020-08-04 08:31
吴恩达机器学习
作业(python版)—— ex1线性回归
文章目录【1】单变量线性回归1.题目描述:2.涉及知识点:3.详细代码解释4.完整代码【2】梯度下降1.涉及知识点2.详细代码解释3.完整代码【3】多变量线性回归1.题目描述2.涉及知识点3.详细代码解释【4】正规方程1.涉及知识点2.详细代码解释【5】slearn线性回归算法以下代码本人是使用JupiterLab运行的,所以没有print语句,此外本文章所有的代码是放在一起运行的【1】单变量线性
Nefu_lyh
·
2020-08-03 10:59
吴恩达作业
python
机器学习
【机器学习】SVM(基于SMO算法)—— python3 实现方案
测试数据是
吴恩达机器学习
课程svm章节的作业。分别用高斯核函数与线性核函数进行测试,可以发现高斯核函数的稳定性和准确率明显较线性核函数好。
zhenghaitian
·
2020-08-03 09:45
机器学习
吴恩达机器学习
作业ex1~matlab
单变量版:ex1.m%%MachineLearningOnlineClass-Exercise1:LinearRegression%Instructions%------------%%Thisfilecontainscodethathelpsyougetstartedonthe%linearexercise.Youwillneedtocompletethefollowingfunctions%i
yinfang1252
·
2020-08-03 09:39
机器学习
吴恩达机器学习
要点记录(上)
文章目录单变量线性回归基础概念多变量线性回归假设函数含n个参数的LR优化GD算法的tricks特征构造以及利用特征构造来得到多项式回归用正规方程法求解代价函数的最小值点θ使用正规方程法时遇到奇异矩阵的处理方法(跳过)逻辑斯谛回归假设函数决策边界代价函数高级优化算法及其特点推广为多元分类器正则化欠拟合与过拟合正则化简介线性回归的正则化使用梯度下降的情况使用正规方程法的情况逻辑斯谛回归的正则化神经网络
pyxiea
·
2020-08-03 08:43
Machine
Learning
吴恩达机器学习
课程课时12梯度下降算法中参数θ0,θ1求偏导
最近学习吴恩达的机器学习课程。看到了线性回归的梯度下降算法。课程中将了一个非常简单的线性回归:比如给出一些房子的size和对应的price,我们可以建立一个模型(在此模型就是线性回归),希望之后在给出任意一个房子的size,可以比较准确的预测到房子的价格。课程中的假设函数、参数、代价函数如下:然后下节视频讲到梯度下降算法,希望通过不断迭代使找到θ0,θ1使代价函数值最小。在xOy平面内,当动点由P
温姑娘
·
2020-08-03 08:22
数学相关
吴恩达机器学习
- 支持向量机(SVM)
题目链接:点击打开链接笔记:无核SVM数据可视化:Code(命令行):%Loadfromex6data1:%YouwillhaveX,yinyourenvironmentload('ex6data1.mat');%PlottrainingdataplotData(X,y);效果图:训练Code(这个是写好的代码,码一下以后可以直接用):function[model]=svmTrain(X,Y,C,
wyg1997
·
2020-08-03 08:49
吴恩达机器学习
BP神经网络原理和算法推导流程(
吴恩达机器学习
)
1反向传播算法和BP网络简介误差反向传播算法简称反向传播算法(即BP算法)。使用反向传播算法的多层感知器又称为BP神经网络。BP算法是一个迭代算法,它的基本思想为:(1)先计算每一层的状态和激活值,直到最后一层(即信号是前向传播的);(2)计算每一层的误差,误差的计算过程是从最后一层向前推进的(这就是反向传播算法名字的由来);(3)更新参数(目标是误差变小)。迭代前面两个步骤,直到满足停止准则(比
wu740027007
·
2020-08-03 08:23
机器学习
吴恩达机器学习
笔记-机器学习系统设计
确定执行的优先级我们已经学习过一些机器学习的算法,那么如何设计一个机器学习系统呢,课程中举了一个垃圾邮件分类器的例子,例子比较简单这里就不再赘述:那么如何来提升这个分类器的准确度呢?有下面几个建议:收集更多的数据增加更复杂的特征(比如邮件头)开发更复杂的算法来鉴定错误拼写误差分析如果你准备研发一个机器学习应用,下面有一些关于开发的一些建议:其中误差分析不一定会对改善算法的表现有帮助,唯一的办法是尝
wu740027007
·
2020-08-03 08:23
机器学习
机器学习
吴恩达
学习笔记
线性回归模型及梯度下降算法(
吴恩达机器学习
第一周作业)
1.线性回归引例:房屋估价系统房屋估价系统问题就是当知道房屋面积、卧室个数与房屋价格的对应关系之后,在得知一个新的房屋信息后如何得到对应的新房屋价格,这类问题可以简化为:寻找房屋面积、卧室个数与房屋价格之间关系方程的过程就是回归,这里假设他们之间是线性关系,即房屋价格可以被表示为房屋面积与卧室个数的一维线性方程,如:这里x表示与房屋价格相关的特征,x1为房屋面积,x2为卧室个数,θ可以理解为各个特
wu740027007
·
2020-08-03 08:23
机器学习
吴恩达机器学习
----应用机器学习的建议
第十章应用机器学习的建议(AdviceforApplyingMachineLearning)获得更多的训练实例——通常是有效的,但代价较大,可考虑先采用下面的几种方法进行解决:1.尝试减少特征的数量2.尝试获得更多的特征3.尝试增加多项式特征4.尝试减少正则化程度λ5.尝试增加正则化程度λ1、评估一个假设当我们确定学习算法的参数的时候,我们考虑的是选择参量来使训练误差最小化,有人认为得到一个非常小
wu740027007
·
2020-08-03 08:23
机器学习
机器学习中代价函数是啥意思?听听大师怎么讲
本文是“
吴恩达机器学习
视频”学习笔记,“代价函数定义”一节。本次课前半段内容非常简单,带领我们一起复习初中平面几何的知识,后半段给出了代价函数(Costfunction)的一般定义。
讲编程的高老师
·
2020-08-03 08:45
机器学习
支持向量机【Coursera 斯坦福 机器学习】
本文基于coursera斯坦福
吴恩达机器学习
课程谢绝任何不标注出处的转载以及百度百家号抄袭如有问题请联系作者很多监督学习的效果都非常相似。
爱看动漫的李皮皮
·
2020-08-03 07:03
machine
learning
吴恩达机器学习
笔记-模型及代价函数
本文主要讲述一元线性回归算法的主要内容,因此默认对监督学习的定义有所了解,若不清楚可查看
吴恩达机器学习
第一讲或自行Google。
weixin_34137799
·
2020-08-03 07:05
(吴恩达笔记 2-1)——支持向量机SVM
svm能对训练集以外的数据做出很好的分类决策【注】以下内容均为本人在学习
吴恩达机器学习
视频时所作笔记,所以较吴恩达的字幕而言相对简单。
灰羽吖
·
2020-08-03 06:37
机器学习
与SVM的初识(1):吴恩达视频中的SVM简介
吴恩达视频中的SVM简介该篇主要参考自
吴恩达机器学习
视频,部分图片摘自pluskid大神的博客支持向量机系列。同时对于那些和我一样的初学者大力推荐一下pluskid大神的博客,感觉讲得非常清楚。
ALazyGuy
·
2020-08-03 05:12
机器学习
[
吴恩达机器学习
笔记]12支持向量机5SVM参数细节
12.支持向量机觉得有用的话,欢迎一起讨论相互学习~吴恩达老师课程原地址参考资料斯坦福大学2014机器学习教程中文笔记by黄海广12.5SVM参数细节标记点选取标记点(landmark)如图所示为l(1),l(2),l(3)l^{(1)},l^{(2)},l^{(3)}l(1),l(2),l(3),设核函数为高斯函数,其中设预测函数y=1ifθ0+θ1f1+θ2f2+θ3f3≥0\theta_0+
武科大许志伟
·
2020-08-03 05:12
机器学习
机器学习基础
吴恩达机器学习
笔记第七周 SVM支持向量机
由逻辑回归引入SVM:支持向量机或者简称SVM,在学习复杂的非线性方程时,提供了一种更为清晰更加强大的方式,我们在逻辑回归中所用的假设函数h(x)的曲线如图:当y=1时,我们希望假设函数能趋向于1,即z>=0,当预测y=0时,我们希望假设函数能趋向于0,即z=1.对于负样本y=0,我们希望cost2(z)=0,即z=0在应用中我们可能需要标记点l1,l2,l3或者更多,我们如何来选择这些标记点呢。
Raven_shhy
·
2020-08-03 05:51
吴恩达机器学习
SVM
核函数为了获得上图所示的判定边界,我们的模型可能是我们可以用一系列的新的特征f来替换模型中的每一项。例如令得到hθ(x)=f1+f2+...+fn。然而,除了对原有的特征进行组合以外,有没有更好的方法来构造f1,f2,f3?我们可以利用核函数来计算出新的特征。高斯核函数为实例x中所有特征与地标l(1)之间的距离的和。我们通常是根据训练集的数量选择地标的数量,即如果训练集中有m个实例,则我们选取m个
swan777
·
2020-08-03 04:39
笔记
SVM
吴恩达机器学习
吴恩达机器学习
视频笔记
专业词汇英文中文英文中文unsupervisedlearning无监督学习clusteringalgorithm(无监督)聚类算法trainingset训练集hypothesis假设函数classificationproblem分类问题univariate单变量terminology术语parameters参数correspondto拟合squaredifference平方差costfunctio
厂花李茜茜
·
2020-08-03 04:08
ml
吴恩达机器学习
笔记七 支持向量机svm
1.线性svm1.1代价函数 吴恩达的svm课程中由logisitic回归讲起,将logistic回归中的代价函数转换成图中的形式。刚开始的时候我自己很疑惑这个地方:为什么代价函数要变成这个样子又为什么代价为零的地方要是z=1和−1z=1和−1,不是z=2,3,4……z=2,3,4…… 直到好好研究了一番svm的几何意义才明白这样做的意义,下面一一道来。1.1.1代价函数为什么要变成这个样子
qsdzxp
·
2020-08-03 04:02
机器学习
吴恩达机器学习
笔记---正规方程及推导
前言1.正规方程(NormalEquation)2.正规方程不可逆性及其推导过程正规方程(NormalEquation)到目前为止,对模型参数θ0\theta_{0}θ0,θ1\theta_{1}θ1,θ2\theta_{2}θ2…θn\theta_{n}θn的求解都是使用梯度下降的方式,这种迭代算法需要经过很多次迭代才能收敛到全局最小值。而我们知道求解函数取最小值时候的解可以利用求导,并令倒数为
ML0209
·
2020-08-03 04:20
机器学习
斯坦福大学
吴恩达机器学习
教程中文笔记——week7——支持向量机
第7周文章目录第7周@[toc]十二、支持向量机(SupportVectorMachines)12.1优化目标12.2大边界的直观理解12.3大边界分类背后的数学(选修)12.4核函数112.5核函数212.6使用支持向量机十二、支持向量机(SupportVectorMachines)12.1优化目标参考视频:12-1-OptimizationObjective(15min).mkv到目前为止,你
laiczhang
·
2020-08-03 04:39
吴恩达机器学习笔记
svm支持向量机-
吴恩达机器学习
基于python
文章目录1线性svm1.1导入数据1.2visualizedata1.3svm算法1.3.1训练1.3.2预测2高斯核函数2.1高斯核函数2.2导入数据2.3visualizedata2.4trybuild-inGaussianKernelofsklearn2.4.1训练2.4.2预测2.4.3画出边界(利用等高线)3寻找最优参数$C$&$\sigma$3.1导入数据3.2visualizedat
吃菜拌胡椒
·
2020-08-03 03:48
#
吴恩达机器学习
吴恩达机器学习
线性回归代价函数推导
多元线性回归的代价函数推导决策函数:hθ(x)=θ1x1+θ2x2+...+θnxn=∑i=1nθixi=θTxh_{\theta}(x)=\theta_1x_1+\theta_2x_2+...+\theta_nx_n=\sum_{i=1}^{n}\theta_ix_i=\theta^Txhθ(x)=θ1x1+θ2x2+...+θnxn=∑i=1nθixi=θTx令有m个样本,对于每个样本:y(i
Taoist_Nie
·
2020-08-03 03:33
吴恩达机器学习
第五道编程题SVM
1.数据集下载MNIST数据集http://yann.lecun.com/exdb/mnist/index.html读取数据的方法参考https://blog.csdn.net/tracer9/article/details/512536042.libsvm工具包下载地址:https://www.csie.ntu.edu.tw/~cjlin/libsvmtools/notes:该工具包版本号是3.
面包儿
·
2020-08-03 03:33
吴恩达机器学习
笔记(6)SVM支持向量机
这一部分是对
吴恩达机器学习
SVM支持向量机内容的总结,主要分为以下几个部分1.线性核函数的SVM2.高斯核函数的SVM3.利用SVM进行垃圾邮件检测这一部分的代码非常繁琐,这里仅展示其功能及运行过程,对代码细节不再深究
深度啊学习啊
·
2020-08-03 03:49
吴恩达机器学习
笔记——指数分布族&广义线性模型&逻辑回归概率模型推导
此文章解释指数分布族,广义重点内容线性模型,以及逻辑回归的概率解释推导。1.指数分布族指数分布族即为指数形式的概率分布:其中,T(y)为充分统计量,tau为自然参数。大多数的概率分布都可以转化为指数分布模型,下文会有例子。2.广义线性模型广义线性模型通过指数分布族来引出。广义线性模型有三个假设:(1)y|x;θExponentialFamily(η);给定样本x与参数θ,样本分类y服从指数分布族中
BestRivenZC
·
2020-08-03 03:29
机器学习算法
吴恩达机器学习
笔记——softmax回归概率模型推导
此文章解释指数分布族,广义重点内容线性模型,以及softmax回归的概率解释推导。1.指数分布族指数分布族即为指数形式的概率分布:其中,T(y)为充分统计量,tau为自然参数。大多数的概率分布都可以转化为指数分布模型,下文会有例子。2.广义线性模型广义线性模型通过指数分布族来引出。广义线性模型有三个假设:(1)y|x;θExponentialFamily(η);给定样本x与参数θ,样本分类y服从指
BestRivenZC
·
2020-08-03 03:29
机器学习算法
吴恩达机器学习
——学习理论,经验风险最小化(ERM),一般误差(测试误差),VC维
这一章主要是学习的理论。首先我们来关注这章主要研究的问题:1.我们在实践中针对训练集有训练误差,针对测试集有测试误差,而我们显然更关心的是测试误差。但是实际算法通常都是由训练集和模型结合,那么我们如何针对训练集的好坏来体现出测试误差的信息呢?这是我们研究的第一个问题2.是否存在某些条件,我们能否在这些条件下证明某些学习算法能够良好工作?1.符号定义写在前面,这里这把各种符号定义,如果在后文遇到对符
ChiiZhang
·
2020-08-03 01:52
机器学习
【机器学习】知识点汇总
资源:1、《统计学习方法》代码实现2、
吴恩达机器学习
课程笔记3、七月在线人工智能面试题4、Datawhale秋招机器学习算法工程师面经5、AI算法工程师手册—华校专6、机器学习十大算法系列—July专栏建议学习顺序
heimu24
·
2020-08-03 00:45
机器学习
吴恩达机器学习
笔记(10)——支持向量机SVM
一、优化目标支持向量机(SupportVectorMachine,SVM)是另一种监督式学习算法。它有时候更加的简洁和强大。我们将逻辑回归中的代价函数转化一下,并使用两段直线来尝试替代曲线,这被称作hingeloss函数。我们把第一项定义为cost1(z),第二项定义为cost0(z),那么可以说cost1(z)是当y=1时进行分类的代价函数,cost0(z)是当y=0时进行分类的代价函数。用co
阿尔基亚
·
2020-08-03 00:43
吴恩达机器学习
吴恩达机器学习
笔记 - 线性回归 & 代价函数 & 梯度下降
一、基本概念1.1机器学习的定义一个年代近一点的定义,由来自卡内基梅隆大学的TomMitchell提出,一个好的学习问题定义如下:一个程序被认为能从经验E中学习,解决任务T,达到性能度量值P,当且仅当,有了经验E后,经过P评判,程序在处理T时的性能有所提升。比如以下棋的机器学习算法为例:经验E就是程序上万次的自我练习的经验,任务T是下棋,性能度量值P是它在与一些新的对手比赛时,赢得比赛的概率。1.
登龙
·
2020-08-02 23:28
机器学习
上一页
24
25
26
27
28
29
30
31
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他