E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
机器学习系列
机器学习系列
--kmeans分类算法
简介K-means算法是集简单和经典于一身的基于距离的聚类算法,采用距离作为相似性的评价指标,即认为两个对象的距离越近,其相似度就越大。该算法认为类簇是由距离靠近的对象组成的,因为把得到紧凑且独立的簇作为最终目标。算法核心思想通过迭代寻找k个类簇的一种划分方案,使得用这k个类簇的均值来代表相应各类样本时所得的总体误差最小。k个聚类具有以下特点:各聚类本身尽可能的紧凑,而各聚类之间尽可能的分开。k-
李孟lm
·
2020-08-18 15:23
数据挖掘
机器学习
机器学习系列
6:正规方程
求一个函数的参数,例如下面这个方程,我们一般都会用梯度下降法去求。还会不会有其他方法求参数呢?答案是有的,可以用正规方程(NormalEquation)去求参数。那么问题来了,什么是正规方程呢?这个方程长什么样子,就让我们来见识一下。其中X是一个矩阵,这个矩阵的每一行都是一组特征值,y是数据集结果的向量。举个例子,还是求房价,现在有4组训练集,如下表:?0就代表常数项。在这个例子中,矩阵X为:可以
SuperFengCode
·
2020-08-18 14:46
机器学习系列
从零开始完整学习机器学习和深度学习,包括理论和代码实现,主要用到scikit和MXNet,还有一些实践(kaggle上的)
前言作为对2020.6一个月学习机器学习和深度学习的回顾和汇总从零开始完整学习传统机器学习和经典深度学习只需要python基础,最好有线性代数基础,没有也问题不大机器学习
机器学习系列
(一)numpy的使用
机器学习系列
思源湖的鱼
·
2020-08-17 17:08
machine
learning
机器学习系列
(一) numpy的使用 2020.6.3
前言开始较为全面的学习机器学习的内容从传统的机器学习开始到当下火热的深度学习预期一个月本节主要是较为全面的学习numpy的使用1、numpy数组的创建importnumpyasnp#np.array只有一个数据类型#int类型nparr=np.array([0,1,2,3,4,5,6])print(nparr)print(nparr.dtype)nparr[3]=3.14print(nparr)#
思源湖的鱼
·
2020-08-17 17:08
machine
learning
李宏毅
机器学习系列
-强化学习之稀疏奖励(Sparse Reward)
李宏毅
机器学习系列
-强化学习之SparseReward稀疏的奖励(SparseReward)人为设计的奖励(RewardShaping)好奇心机制(Curiosity)课程学习(CurriculumLearning
王伟王胖胖
·
2020-08-17 15:34
强化学习
李宏毅机器学习
深度学习
就是要你明白
机器学习系列
--决策树算法之悲观剪枝算法(PEP)
前言在机器学习经典算法中,决策树算法的重要性想必大家都是知道的。不管是ID3算法还是比如C4.5算法等等,都面临一个问题,就是通过直接生成的完全决策树对于训练样本来说是“过度拟合”的,说白了是太精确了。由于完全决策树对训练样本的特征描述得“过于精确”,无法实现对新样本的合理分析,所以此时它不是一棵分析新数据的最佳决策树。解决这个问题的方法就是对决策树进行剪枝,剪去影响预测精度的分支。常见的剪枝策略
weixin_30781631
·
2020-08-17 03:18
机器学习系列
手记(四):降维之线性判别分析与主成分分析
降维线性判别分析与主成分分析相同点:若将LDA扩展到高维情况,多类的类间散度矩阵不能按照二分类的情况进行的定义,此时可以得到与PCA类似的步骤,用于求解具有多个类别标签高维数据的降维问题。(1)计算数据集中每个类别的均指向量μj\mu_jμj及总体均值μ\muμ向量。(2)计算类内散度矩阵SwS_wSw,全局散度矩阵StS_tSt,并得到类间散度矩阵Sb=St−SwS_b=S_t-S_wSb=St
岳小刀
·
2020-08-16 10:26
机器学习系列手记
机器学习系列
22:异常检测
https://www.toutiao.com/a6708617351643808269/2019-07-0117:01:48现在有一个网站,为了防止该网站被人恶意攻击,你采取了以下措施。给每个用户建立用户画像,记录他的一些操作,例如:打字速度,浏览时间,点击网页次数等等。。。可以将这些特征建立一个模型,让它有一个阈值,当低于这个阈值时,就可能是有人在恶意攻击你的网站,这时候你就要小心了。就像下图
喜欢打酱油的老鸟
·
2020-08-16 09:20
人工智能
经典
机器学习系列
(二)【线性判别分析LDA】
线性判别分析,英文名称LinearDiscriminantAnalysis(LDA)是一种经典的线性学习方法。本文针对二分类问题,从直观理解,对其数学建模,之后模型求解,再拓展到多分类问题。大体思想 给定训练样例集,设法将样例投影到一条直线上,使得同类样例的投影点尽可能接近、异类样例的投影点尽可能远离;在对新样本进行分类时,将其投影到同样的这条直线上,再根据投影点的位置来确定新样本的类别。数
小小何先生
·
2020-08-16 09:41
ML基础原理(已完结)
模型的改善与泛化(偏差方差与交叉验证)
跟我一起
机器学习系列
文章将首发于公众号:月来客栈,欢迎文末扫码关注!上一篇文章笔者介绍了什么是正则化,以及正则化为什么能够缓解过拟合的原理。
空字符(公众号:月来客栈)
·
2020-08-15 22:05
跟我一起机器学习
模型的改善与泛化(过拟合)
跟我一起
机器学习系列
文章将首发于公众号:月来客栈,欢迎文末扫码关注!
空字符(公众号:月来客栈)
·
2020-08-15 22:05
跟我一起机器学习
Spark2.0
机器学习系列
之2:Logistic回归及Binary分类(二分问题)结果评估
参数设置α:梯度上升算法迭代时候权重更新公式中包含α:http://blog.csdn.net/lu597203933/article/details/38468303为了更好理解α和最大迭代次数的作用,给出Python版的函数计算过程。#梯度上升算法-计算回归系数#每个回归系数初始化为1#重复R次:#计算整个数据集的梯度#使用α*梯度更新回归系数的向量#返回回归系数defgradAscent(d
千寻千梦
·
2020-08-15 07:57
spark
ml
图上的
机器学习系列
-聊聊LINE
前言本篇继续GraphEmbedding旅途,来聊聊LINE这个方法,对应的paper为《LINE:Large-scaleInformationNetworkEmbedding》。---广告时间,欢迎关注本人公众号:LINE的核心方法首先,还是先来脑补一下LINE方法的思考过程:相似度&距离在上一篇中,我们已经知道DeepWalk是采用类似于Word2Vec的方法,用一个节点的邻居序列来保存节点在
a_step_further
·
2020-08-14 01:55
读书笔记
复杂网络
机器学习系列
(二) kNN(k近邻算法)会用到scikit 2020.6.4
前言本节学习kNN算法这个应该算是最简单最基础的机器学习算法思想极度简单效果好可以解释机器学习中很多细节本节内容包括自己实现底层逻辑使用scikit的库借用kNN了解机器学习里的一些细节问题1、kNN的简单实现kNN的思想简单讲就是附近k个样本哪种多,就是哪种的概率大可以认为没有模型也可以认为训练数据集就是模型如图,k设为3,绿点是新的点,附近红色有2个,蓝色有1个,故认为绿点应该被分类为红色自己
思源湖的鱼
·
2020-08-13 22:03
machine
learning
数学推导+纯Python实现机器学习算法22:EM算法
Python机器学习算法实现Author:louwillMachineLearningLab从本篇开始,整个
机器学习系列
还剩下最后三篇涉及导概率模型的文章,分别是EM算法、CRF条件随机场和HMM隐马尔科夫模型
louwill12
·
2020-08-13 21:04
机器学习算法汇总
1.人工智能之机器学习体系汇总【直接上干货】此处梳理出面向人工智能的机器学习方法体系,主要体现机器学习方法和逻辑关系,理清机器学习脉络,后续文章会针对
机器学习系列
讲解算法原理和实战。
tianguiyuyu
·
2020-08-13 19:06
python与机器学习
机器学习系列
(3)_逻辑回归应用之Kaggle泰坦尼克之灾
作者:寒小阳时间:2015年11月。出处:http://blog.csdn.net/han_xiaoyang/article/details/49797143声明:版权所有,转载请注明出处,谢谢。1.引言先说一句,年末双十一什么的一来,真是非(mang)常(cheng)欢(gou)乐(le)!然后push自己抽出时间来写这篇blog的原因也非常简单:写完前两篇逻辑回归的介绍和各个角度理解之后,我们
Tracy_Lee1993
·
2020-08-13 12:50
python
机器学习系列
(8):主成分分析(PCA)及白化(ZCA)
主成分分析(PCA)是一种数据降维算法。白化主要是降低输入特征的冗余性。假设X是m*n的矩阵,由n个样本(m维特征)组成。现要对X进行线性变换为另一个矩阵Y,使得Y消除了X各特征的相关性,即Y的协方差矩阵为对角矩阵(YY'为对角矩阵)。X变换到Y的线性变换公式为:Y=PX(1)则,YY’=PX(PX)’=PXX’P’(2)对XX’进行特征值分解,则XX’=QDQ-1(3)(Q为XX’的特征矩阵,D
涵子涵
·
2020-08-13 10:28
基础算法
机器学习
【
机器学习系列
之三】特征工程
目录1.特征工程概述与采样2.数据预处理2.1数值型数据2.2类别型数据2.3文本型2.4其他2.5时间型2.6统计特征2.7特征结合featurestacker3.特征选择3.1Filter3.2Wrapper3.3Embedded4.降维技术4.1PCA(PrincipalComponentAnalysis)4.2LDA4.3SVD(文本降维)1.特征工程概述与采样数据和特征决定了机器学习的上
黄小猿
·
2020-08-11 03:05
机器学习与数据挖掘
深入
机器学习系列
之自然语言处理
来源:星环科技数据猿官网|www.datayuan.cn今日头条丨一点资讯丨腾讯丨搜狐丨网易丨凤凰丨阿里UC大鱼丨新浪微博丨新浪看点丨百度百家丨博客中国丨趣头条丨腾讯云·云+社区自然语言处理(NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。随着深度学习在图像识别、语音识别领域的大放异彩,人们对深度学习在NLP的价值也寄予厚望
数据猿
·
2020-08-10 14:27
Spark
机器学习系列
之13: 支持向量机SVM
支持向量机系列学习笔记包括以下几篇:Spark
机器学习系列
之13:支持向量机SVM:http://blog.csdn.net/qq_34531825/article/details/52881804支持向量机学习之
千寻千梦
·
2020-08-10 07:30
spark
ml
scikit
机器学习系列
26-循环神经网络(Ⅰ)
RecurrentNeuralNetwork(Ⅰ)RNN,或者说最常用的LSTM,一般用于记住之前的状态,以供后续神经网络的判断,它由inputgate、forgetgate、outputgate和cellmemory组成,每个LSTM本质上就是一个neuron,特殊之处在于有4个输入:zzz和三门控制信号ziz_izi、zfz_fzf和zoz_ozo,每个时间点的输入都是由当前输入值+上一个时间
Sakura_gh
·
2020-08-09 02:59
机器学习
神经网络
python
人工智能
深度学习
机器学习系列
27-循环神经网络RNN(Ⅱ)
RecurrentNeuralNetwork(Ⅱ)上一篇文章介绍了RNN的基本架构,像这么复杂的结构,我们该如何训练呢?LearningTargetLossFunction依旧是SlotFilling的例子,我们需要把model的输出yiy^iyi与映射到slot的referencevector求交叉熵,比如“Taipei”对应到的是“dest”这个slot,则referencevector在“d
Sakura_gh
·
2020-08-09 02:59
机器学习
python
机器学习
人工智能
深度学习
机器学习系列
12-卷积神经网络CNN part2
ConvolutionalNeuralNetworkpart2如果本文对你有帮助,请给我的github打个star叭,上面附有全系列目录和内容!更多优质内容欢迎关注我的微信公众号“Sakura的知识库”:人们常常会说,deeplearning就是一个黑盒子,你learn完以后根本就不知道它得到了什么,所以会有很多人不喜欢这种方法,这篇文章就讲述了三个问题:WhatdoesCNNdo?WhyCNN?
Sakura_gh
·
2020-08-09 02:58
机器学习
机器学习系列
25-支持向量机
SupportVectorMachine支持向量机(SVM)有两个特点:SVM=铰链损失(HingeLoss)+核技巧(KernelMethod)注:建议先看这篇博客了解SVM基础知识后再看本文的分析HingeLossBinaryClassification先回顾一下二元分类的做法,为了方便后续推导,这里定义data的标签为-1和+1当f(x)>0f(x)>0f(x)>0时,g(x)=1g(x)=
Sakura_gh
·
2020-08-09 02:58
机器学习
机器学习
人工智能
深度学习
神经网络
python
机器学习系列
5-梯度下降法
GradientDescent如果本文对你有帮助,请给我的github打个star叭,上面附有全系列目录和内容!更多优质内容欢迎关注我的微信公众号“Sakura的知识库”:Review前面预测宝可梦cp值的例子里,已经初步介绍了GradientDescent的用法:Instep3,wehavetosolvethefollowingoptimizationproblem:θ∗=argminθL(
Sakura_gh
·
2020-08-09 02:27
机器学习
机器学习系列
8-深度学习简介
DeepLearning如果本文对你有帮助,请给我的github打个star叭,上面附有全系列目录和内容!更多优质内容欢迎关注我的微信公众号“Sakura的知识库”:UpsanddownsofDeepLearning1958:Perceptron(linearmodel),感知机的提出和LogisticRegression类似,只是少了sigmoid的部分1969:Perceptronhaslim
Sakura_gh
·
2020-08-09 02:27
机器学习
机器学习系列
全集,301页PDF精心整理!
机器学习笔记PDF版本订阅版权申明:特在此声明,“机器学习笔记(订阅版)”为本人独立工作成果,未经允许,不得转载。Copyright©2020Sakura-gh关注微信公众号“Sakura的知识库”,或访问Github:https://github.com/Sakura-gh/ML-notes即可获取,持续更新中~封面概览如下:附:陆陆续续也已经更新了将近20w余字的笔记啦~学习的过程是孤独的,学
Sakura_gh
·
2020-08-09 02:27
机器学习
深度学习
神经网络
机器学习
pytorch
支持向量机学习之2:核函数
支持向量机系列学习笔记包括以下几篇:Spark
机器学习系列
之13:支持向量机SVM:http://blog.csdn.net/qq_34531825/article/details/52881804支持向量机学习之
千寻千梦
·
2020-08-08 19:46
ml
深入
机器学习系列
3-逻辑回归
转载请注明出处,该文章的官方来源:Logistic-Regression|endymecy逻辑回归1二元逻辑回归 回归是一种很容易理解的模型,就相当于y=f(x),表明自变量x与因变量y的关系。最常见问题如医生治病时的望、闻、问、切,之后判定病人是否生病或生了什么病,其中的望、闻、问、切就是获取的自变量x,即特征数据,判断是否生病就相当于获取因变量y,即预测分类。最简单的回归是线性回归,但是线性
星环科技
·
2020-08-08 18:53
常见机器学习算法
机器学习(二):基础概念
编程语言:Python参考书籍:《Python机器学习实践指南》《机器学习实战》参考视频:吴恩达老师的
机器学习系列
视频吴恩达老师机器学习笔记整理笔记下载:机器学习个人笔记完整版什么是机器学习机器学习是人工智能的一个分支
打不死的小黑
·
2020-08-08 16:00
机器学习
机器学习
机器学习系列
(2)_从初等数学视角解读逻辑回归
一、引言前一篇文章《
机器学习系列
(1)_逻辑回归初步》中主要介绍了逻辑
寒小阳
·
2020-08-08 16:12
机器学习/数据挖掘
机器学习与数据挖掘
逻辑回归
几何意义
初等数学
直观描述
机器学习
机器学习系列
(1)_逻辑回归初步
作者:寒小阳&&龙心尘时间:2015年10月。出处:http://blog.csdn.net/han_xiaoyang/article/details/49123419。声明:版权所有,转载请注明出处,谢谢。1、总述逻辑回归是应用非常广泛的一个分类机器学习算法,它将数据拟合到一个logit函数(或者叫做logistic函数)中,从而能够完成对事件发生的概率进行预测。2、由来要说逻辑回归,我们得追溯
寒小阳
·
2020-08-08 16:41
机器学习/数据挖掘
机器学习与数据挖掘
分类
逻辑回归
机器学习
数据挖掘
机器学习系列
7:逻辑回归
你们有没有每天被垃圾短信骚扰的经历呢?假设我收到了一条短信,这条短信对我来说只有两种情况,要么是对我有用的,要么是没用的。我想通过一个模型去预测该短信是否为垃圾短信,这时候用原来学过的线性回归算法就不太好用了,因为结果只有两种值,要么是垃圾短信(假设为1),要么不是垃圾短信(假设为0)。这时候我们要学习一种新的算法去预测这种分类问题,它就是逻辑回归算法(LogisticRegression)。逻辑
SuperFengCode
·
2020-08-08 13:17
机器学习系列
机器学习
吴恩达
人工智能
逻辑回归
AI
机器学习系列
7-逻辑回归
LogisticRegression如果本文对你有帮助,请给我的github打个star叭,上面附有全系列目录和内容!更多优质内容欢迎关注我的微信公众号“Sakura的知识库”:Review在classification这一章节,我们讨论了如何通过样本点的均值uuu和协方差Σ\SigmaΣ来计算P(C1),P(C2),P(x∣C1),P(x∣C2)P(C_1),P(C_2),P(x|C_1),P(
Sakura_gh
·
2020-08-08 11:36
机器学习
机器学习系列
:(五)决策树——非线性回归与分类
声明:版权所有,转载请联系作者并注明出处http://blog.csdn.net/u013719780?viewmode=contents博主简介:风雪夜归子(英文名:Allen),机器学习算法攻城狮,喜爱钻研MachineLearning的黑科技,对DeepLearning和ArtificialIntelligence充满兴趣,经常关注kaggle数据挖掘竞赛平台,对数据、MachineLear
风雪夜归子
·
2020-08-07 10:37
机器学习
机器学习系列
(3)——误差来源
估测假设真实模型为f^\hat{f}f^,然后我们通过搜集数据,通过训练得到我们的理想模型f∗f^*f∗,f∗f^*f∗其实是f^\hat{f}f^的一个预估。这个过程就像打靶,f^\hat{f}f^就是我们的靶心,f∗f^*f∗就是我们投掷的结果。上图中f^\hat{f}f^和f∗f^*f∗之间蓝色部分的差距就是偏差和方差导致的。估测x的偏差假设xxx的平均值是μ\muμ,方差是σ2\sigma
victor_cs_bit
·
2020-08-03 23:50
机器学习与深度学习
机器学习系列
(2)——回归
定义Regression就是找到一个函数function,通过输入特征x,输出一个数值scalar。应用举例股市预测(Stockmarketforecast)-输入:过去10年的股票变动、新闻资讯、公司并购资讯等-输出:预测股市明天的平均值自动驾驶(Self-drivingCar)-输入:无人车上的各个sensor的数据,例如路况、测出的车距等-输出:方向盘的角度商品推荐(Recommendati
victor_cs_bit
·
2020-08-03 23:50
机器学习与深度学习
机器学习系列
(4)——梯度下降
梯度下降法在回归问题的第三步中,需要解决下面的最优化问题:θ∗=argminθL(θ)\theta^*=arg\min_\thetaL(\theta)θ∗=argminθL(θ)L:lossfunction(损失函数)θ\thetaθ:parameters(参数)这是的parameters是复数,即θ\thetaθ指代一堆参数,比如之前说到的w和b。我们要找一组参数θ\thetaθ,让损失函数越
victor_cs_bit
·
2020-08-03 23:50
机器学习与深度学习
机器学习系列
03:线性回归模型
本内容将介绍机器学习中的线性回归模型,及Python代码实现。 线性模型形式简单、易于建模,但却蕴涵这机器学习中一些重要的基本思想。许多功能更为强大的非线性模型(nonlinearmodel)可在线性模型的基础上通过引入层级结构或高维映射而得。 线性回归意味着可以将输入项分别乘以一些常量,再将结果加起来得到输出。回归需要数值型数据,标称型数据将被转化成二值型数据。一、线性回归模型 给定一
空杯的境界
·
2020-08-03 15:36
01_机器学习
机器学习系列
【
机器学习系列
文章】第1部分:为什么机器学习很重要 ?
目录路线图谁应该读这个?为什么机器学习很重要语义树:人工智能和机器学习强大的AI将永远改变我们的世界;要了解如何,学习机器学习是一个很好的起点如何阅读这个系列关于作者简单,简单的解释,附有数学,代码和现实世界的例子。这个系列是一本完整的电子书!在这里下载。免费下载,贡献赞赏(paypal.me/ml4h)路线图第1部分:为什么机器学习很重要。人工智能和机器学习的大局-过去,现在和未来。第2.1部分
ChenVast
·
2020-08-03 12:51
Machine
Learning
机器学习算法理论与实战
机器学习系列
04:梯度下降法及 Python 实现
本内容将介绍梯度下降法以及其三种类型(批量梯度下降法(BGD)、随机梯度下降法(SGD)和小批量梯度下降法(MBGD))。最后将给出使用随机梯度下降法拟合一个线性回归模型的Python代码。 在机器学习中,为了学得一个能够较好反映实际的模型,通常的方法:针对模型构建损失函数,然后使得损失函数最小化。在实际任务中,梯度下降法是使用较多的一种方法。一、梯度下降法 梯度下降法(Gradientd
空杯的境界
·
2020-08-03 10:35
01_机器学习
机器学习系列
机器学习系列
08:深入理解拉格朗日乘子法、KKT 条件和拉格朗日对偶性
本内容将介绍支持向量机(SVM)中需要使用的基础知识:拉格朗日乘子法、KKT条件和拉格朗日对偶性。一、最优化问题 最优化问题通常分为无约束问题、等式约束问题和不等式约束问题。下面我们将介绍对这些问题如何求解。1.1无约束问题 对于变量x∈Rn\mathbf{x}\in\Bbb{R}^{n}x∈Rn的函数f(x)f(\mathbf{x})f(x),无约束优化问题如下:(1)minf(x)\
空杯的境界
·
2020-08-03 10:45
01_机器学习
机器学习系列
再谈SVM(hard-margin和soft-margin详细推导、KKT条件、核技巧)
前言:大概一个月前,通过李宏毅的
机器学习系列
视频,我自学了一点SVM,整理在:机器学习之SVM(HingeLoss+KernelTrick)原理推导与解析。
Cyril_KI
·
2020-08-03 10:07
Machine
Learning
笔记
算法与数学泛谈
svm
对偶问题
机器学习
吴恩达
机器学习系列
课程笔记——非监督学习
该系列笔记内容是楼主在观看课程时记录的,其中图片是视频中ppt的截图,内容仅供参考,有问题欢迎大家指出。目录1.聚类(Clustering)1.1K均值算法(K-means)——迭代算法1.1.1失真代价函数(DistortionCostFunction)1.1.2聚类中心的随机初始化1.1.3聚类数量的选择2.降维(DimensionalityReduction)2.1主成分分析法(PCA,Pr
White_lies
·
2020-08-02 22:33
#
吴恩达机器学习
吴恩达
机器学习系列
课程笔记——机器学习系统设计
该系列笔记内容是楼主在观看课程时记录的,其中图片是视频中ppt的截图,内容仅供参考,有问题欢迎大家指出。目录1.误差分析1.1交叉验证错误率(CrossValidationError)1.2查准率和召唤率(Precision/Recall)1.2.1评估度量方法F~1~Score2.推荐系统2.1基于内容的推荐算法(ContentBasedRecommendations)2.2协同过滤(Colla
White_lies
·
2020-08-02 22:01
#
吴恩达机器学习
吴恩达
机器学习系列
课程笔记——过拟合问题以及正则化技术
该系列笔记内容是楼主在观看课程时记录的,其中图片是视频中ppt的截图,内容仅供参考,有问题欢迎大家指出。目录1.过拟合问题(OverfittingProblem)2.正则化技术(RegularizationMethod)什么是拟合在介绍拟合前先定义两个名词:偏差和方差偏差(Bias)又称为表观误差,是指个别测定值与测定的平均值之差,它可以用来衡量测定结果的精密度高低,这里描述的是根据样本拟合出的模
White_lies
·
2020-08-02 22:01
#
吴恩达机器学习
吴恩达
机器学习系列
课程笔记——神经网络
该系列笔记内容是楼主在观看课程时记录的,其中图片是视频中ppt的截图,内容仅供参考,有问题欢迎大家指出。目录1.神经元结构2.神经网络结构3.前向传播(ForwardPropagation)3.1例子3.1.1简单模型(逻辑运算)3.1.2复杂模型(多输出——分类问题)4.反向传播算法(BackpropagationAlgorithm)4.1梯度检验(GradientChecking)5.随机初始
White_lies
·
2020-08-02 22:01
#
吴恩达机器学习
吴恩达
机器学习系列
课程笔记——机器学习的评估和诊断
该系列笔记内容是楼主在观看课程时记录的,其中图片是视频中ppt的截图,内容仅供参考,有问题欢迎大家指出。目录1.机器学习评估方法1.1传统标准1.2交叉验证集2.机器学习诊断法(MachineLearningDiagnostics)2.1特征数量对拟合的影响2.2正则化参数对拟合的影响2.3样本数对拟合的影响——学习曲线(LearningCurves)2.4神经网络隐藏层神经元个数对拟合的影响1.
White_lies
·
2020-08-02 22:01
#
吴恩达机器学习
SVM之软间隔最大化
跟我一起
机器学习系列
文章将首发于公众号:月来客栈,欢迎文末扫码关注!
空字符(公众号:月来客栈)
·
2020-08-02 22:04
跟我一起机器学习
上一页
5
6
7
8
9
10
11
12
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他