E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
•机器学习基础
【
机器学习基础
】决策树算法
引言在之前的两节博文《混合和装袋》和《自适应提升》中,我们已经有现成的一堆假设g在手中,我们还如何将这些g混合起来,得到更好的分类器。混合方式可以分为三种情况:把g看做是同等地位,通过投票或者平均的方式将它们合起来,称为Baggingg是不平等的,有好有坏,一个可行的做法是把g当成是特征的转换,然后丢进线性模型训练就可以了,这称为AdaBoost如果是不同的条件下,使用不同的g,那么我们仍然可以将
JasonDing
·
2020-02-24 18:19
从统计到概率,入门者都能用Python试验的
机器学习基础
【嵌牛导读】:从统计到概率,入门者都能用Python试验的
机器学习基础
【嵌牛鼻子】:Python机器学习统计概率【嵌牛提问】:机器学习中,你了解的概率论与统计学有多少?
羽_71ba
·
2020-02-24 12:04
【
机器学习基础
】线性可分支持向量机
接下来的有关
机器学习基础
博文主要根据机器学习技法课程的学习,围绕特征转换(featuretransforms)这个主要工具,从以下三个方向进行探讨:如果现在有很多特征转换可以使用的时候,我们该如何运用这些特征转换
JasonDing
·
2020-02-22 21:45
机器学习基础
:(Python)训练集测试集分割与交叉验证
摘要:本文讲述了如何用Python对训练集测试集进行分割与交叉验证。在上一篇关于Python中的线性回归的文章之后,我想再写一篇关于训练测试分割和交叉验证的文章。在数据科学和数据分析领域中,这两个概念经常被用作防止或最小化过度拟合的工具。我会解释当使用统计模型时,通常将模型拟合在训练集上,以便对未被训练的数据进行预测。在统计学和机器学习领域中,我们通常把数据分成两个子集:训练数据和测试数据,并且把
阿里云云栖号
·
2020-02-22 08:58
机器学习基础
·常用信息论基本概念
摘要熵、KL散度、互信息正文熵熵认为小概率事件信息量大,一个分布的熵为信息量的期望离散形式:连续形式:离散形式下最大熵为均匀分布;连续形式下,确定时,最大熵为高斯分布另外有:交叉熵、相对熵、互信息交叉熵:使用分布表示,相对熵:也称KL散度,使用分布表示后的分布差异:互信息:衡量随机变量之间的独立性,关于KL散度的不对称性KL散度不是对称的,选择KL散度的哪个方向,取决于问题。一些应用需要这个近似分
jiangweijie1981
·
2020-02-19 11:42
机器学习基础
梳理—(支持向量机浅谈)
一、SVM基础支持向量机(SVM)是一种二分类模型,有别于感知机(误分类点到超平面的总距离),SVM的学习策略是间隔最大化,当训练样本完全线性可分时,采用硬间隔最大化,称为线性可分支持向量机;当训练样本近似线性可分时,增加松弛变量,采用软间隔最大化,称为线性支持向量机;在非线性问题中引入了核函数和软间隔最大化,称为非线性支持向量机。分离超平面:w*x+b=0样本点到分离超平面的距离:|w*x+b|
忘川水间
·
2020-02-18 20:00
ML学习笔记(1)——
机器学习基础
学习资料来源:1.Coursera上AndrewNg的课程MachineLearning,班次:2017年3月6日开班。2.《机器学习实战MachineLearninginAction》PeterHarrington,人民邮电出版社。3.《python机器学习及实践》范淼、李超,清华大学出版社。1.定义机器学习的定义2.基本概念基本概念3.分类算法分类4.基本流程(监督学习)监督学习的基本流程
尘中之光
·
2020-02-18 17:51
【
机器学习基础
】线性回归基础
线性回归描述线性回归问题就是要找出一个最好超平面使得数据点距离这个平面的误差(residuals)最小。传统上,最常用的是均方误差来评价这个误差。求解最小的训练误差现在我们要做的是如何选择参数w,使得训练误差Ein越小越好。首先,我们把计算过程用矩阵形式表示出来,使表示更加简洁。这里xn表示成列向量的形式,然后将加和的形式表示成向量的长度,进而将其中的运算变换成矩阵的运算。然后,我们可以看出训练误
JasonDing
·
2020-02-14 07:50
机器学习基础
:案例研究——week 4
作业代码:importgraphlab#Limitnumberofworkerprocesses.Thispreservessystemmemory,whichpreventshostednotebooksfromcrashing.graphlab.set_runtime_config('GRAPHLAB_DEFAULT_NUM_PYLAMBDA_WORKERS',4)#导入数据people=gr
Think123DO
·
2020-02-14 04:27
干货 | 140页《深度强化学习入门》PDF版下载!
本书是伯克利知名机器学习专家MichaelJordan教授主编的「
机器学习基础
与趋势」系列丛书中最新加入的一本。小编摘取翻译了其中部
nanao3o
·
2020-02-13 07:49
白板推导笔记
machine_learning_derivation地址三:up主自己machine_learning_derivation-master地址四:轻狂书生的知乎地址五:在线版本以下笔记地址转载自知乎,作者为轻狂书生[
机器学习基础
年糕糕糕
·
2020-02-10 17:25
机器学习
机器学习基础
Q&A
这是我个人整理和总结的基础概念和疑难点,用Q&A的形式展示出来,特别适合初学者和准备面试的童鞋~逻辑回归,Lasco回归,Ridge回归和ElasticNetQ:逻辑回归比线性回归好吗?为什么?A:并不能说在任意场景下,逻辑回归一定会比线性回归好.由NFL定理可知,如果存在使用LR比使用线性回归表现更好的场景,就一定存在使用线性回归比使用LR表现更好的场景.Q:介绍一下Lasco回归,Ridge回
KAMIWei
·
2020-02-10 08:45
【
机器学习基础
】混合和装袋
融合模型(AggregationModel)如果我们已经得到了一些特征或者假设,它们和我们做机器学习的目标有若干的一致性的话,我们可以将这些假设综合起来,让预测效果变得更好,这样的模型被称为融合模型。融合模型是通过混合(mix)和组合(combine)一些假设的方式,得到更好的预测结果。下面列举了四种不同的混合组合方式,并给出了数学表示形式:当有多个假设时,我们选择检验误差最小的假设作为我们最信任
JasonDing
·
2020-02-10 05:15
书单 2019.11.15 ~ 2019.12.15
机器学习python
机器学习基础
Python数据科学手册面向数据科学家的实用统计学机器学习实战:基于Scikit-Learn和TensorFlow赤裸裸的统计学数据科学实战分析方法论精益数据分析数据化管理数据化决策精通
我这只无助的小猫咪
·
2020-02-10 03:20
机器学习基础
·拉格朗日乘数法
摘要方法的目标问题,原始问题,对偶问题的描述及形式,相关理论及KKT条件。正文目标解决条件极值问题,条件含不等式约束及等式约束,拉格朗日乘数法将约束问题转换为无约束问题。问题描述假设是定义在上的连续可微函数。构造拉格朗日函数原始问题的等价表示对偶问题原始问题和对偶问题的关系(1)(2)的条件a.是凸函数,是仿射函数;b.不等式约束是严格可行的。KKT条件备注:注意在使用拉格朗日乘数法时,约束条件的
jiangweijie1981
·
2020-02-07 21:33
机器学习面试之归一化与标准化
之所以常见,是因为它有很多暗坑,每个暗坑都可以考察应聘者
机器学习基础
是否扎实。1、先说是什么,再说为什么归一化和标准化经常被搞混,程度还比较严重,非常干扰大家的理解。
milter
·
2020-02-07 06:16
Coursera台大
机器学习基础
课程学习笔记1 -- 机器学习定义及PLA算法
Version:1.0StartHTML:000000247EndHTML:000017612StartFragment:000001896EndFragment:000017538StartSelection:000001918EndSelection:000017522SourceURL:http://www.cnblogs.com/HappyAngel/p/3456762.html?from
史努B
·
2020-02-05 21:07
机器学习基础
——推导线性回归公式
在之前的文章当中,我们介绍过了简单的朴素贝叶斯分类模型,介绍过最小二乘法,所以这期文章我们顺水推舟,来讲讲线性回归模型。线性回归的本质其实是一种统计学当中的回归分析方法,考察的是自变量和因变量之间的线性关联。后来也许是建模的过程和模型训练的方式和机器学习的理念比较接近,所以近年来,这个模型被归入到了机器学习的领域当中。然而,不管它属于哪个领域,整个模型的思想并没有发生变化。我们只要有所了解即可。模
TechFlow2019
·
2020-02-05 09:00
机器学习基础
·参数估计
摘要极大似然估计(MLE),贝叶斯估计(BE),最大后验估计(MAP),共轭先验正文问题描述假设观测数据是由生成的,现在需要估计参数。MLEMLE假设产生数据的模型参数是固定的,通过最大化似然函数直接求解参数,即求解如下问题:一般转换为对数似然来求解:BEBE假设产生数据的模型参数也是随机变量,有其自身的分布,求解先得到在观测数据下的后验分布,再由取的期望作为估计的参数,即:在使用BE时需要事先给
jiangweijie1981
·
2020-02-02 21:04
2017Google开发者大会记录
TensorFlow——
机器学习基础
框架AnnaGoldie介绍云服务:GoogleCloudIBMMicrosoftAzureimage.pngimage.png使用image.png用户看到的是前端
晨箜
·
2020-02-02 15:38
机器学习资料《分布式机器学习算法理论与实践》+《白话机器学习算法》+《Python
机器学习基础
教程》
机器学习正在迅速改变我们的世界。我们几乎每天都会读到机器学习如何改变日常的生活。人工智能和大数据时代,解决最有挑战性问题的主流方案是分布式机器学习!《分布式机器学习:算法、理论与实践》电子书资料全面介绍分布式机器学习的现状,深入分析其中的核心技术问题,并且讨论该领域未来的发展方向。我认为第3章到第8章是核心,讲解分布式机器学习的框架及其各个功能,分别针对其中的数据与模型划分模块、单机优化模块、通信
wangyiw8
·
2020-02-02 00:00
机器学习基础
概念辨析
假设函数hypothesisfunction定义:假设函数可以看做是对于已知数据建立的初始模型。目的:在监督学习中,为了拟合输入样本,而使用的假设函数,记为hθ(x)。损失函数lossfunction又称为误差函数(errorfunction)。名称由来:损失或者误差,可以理解为精度的损失或者与真实值的误差,因为我们拟合的函数不是100%精确的,而是一个大概的。很多机器学习场景,我们也做不到百分之
sharp
·
2020-02-01 06:15
机器学习
机器学习基础
——带你实战朴素贝叶斯模型文本分类
本文始发于个人公众号:TechFlow上一篇文章当中我们介绍了朴素贝叶斯模型的基本原理。朴素贝叶斯的核心本质是假设样本当中的变量服从某个分布,从而利用条件概率计算出样本属于某个类别的概率。一般来说一个样本往往会含有许多特征,这些特征之间很有可能是有相关性的。为了简化模型,朴素贝叶斯模型假设这些变量是独立的。这样我们就可以很简单地计算出样本的概率。想要回顾其中细节的同学,可以点击链接回到之前的文章:
TechFlow2019
·
2020-01-22 08:00
机器学习基础
概论
本文将是一篇长文,是关于机器学习相关内容的一个总体叙述,会总结之前三个例子中的一些关键问题,读完此文将对机器学习有一个更加深刻和全面的认识,那么让我们开始吧。我们前面三篇文章分别介绍了二分类问题、多分类问题和标量回归问题,这三类问题都是要将输入数据与目标结果之间建立联系。同时,这三类问题都属于监督学习的范畴,监督学习是机器学习的一个分支,还包括三个其他的主要分支:无监督学习、自监督学习和强化学习。
renyuzhuo
·
2020-01-21 17:00
机器学习基础
系列(2)——数据预处理
本文系PWN2WEB原创,转载请说明出处机器学习算法最终学习结果的优劣取决于数据质量和数据中蕴含的有用信息数量,对数据的处理对模型高效性起到了巨大的作用。一缺失数据的处理数据采集过程中的错误导致缺失值的出现,我们无法忽略这些缺失值,所以我们需要对这些缺失值进行处理。首先我们构造一个csv文件来举例说明问题的所在。构造如下的CSV文件:read_csv函数是将CSV格式数据读取到pandas的数据框
pwn2web
·
2020-01-16 14:00
机器学习基础
——让你一文学会朴素贝叶斯模型
今天这篇文章和大家聊聊朴素贝叶斯模型,这是机器学习领域非常经典的模型之一,而且非常简单,适合初学者入门。朴素贝叶斯模型,顾名思义和贝叶斯定理肯定高度相关。之前我们在三扇门游戏的文章当中介绍过贝叶斯定理,我们先来简单回顾一下贝叶斯公式:\[P(A|B)=\frac{P(A)P(B|A)}{P(B)}\]我们把\(P(A)\)和\(P(B)\)当做先验概率,那么贝叶斯公式就是通过先验和条件概率推算后验
TechFlow2019
·
2020-01-15 08:00
机器学习基础
系列--先验概率 后验概率 似然函数 最大似然估计(MLE) 最大后验概率(MAE) 以及贝叶斯公式的理解
目录
机器学习基础
1.概率和统计2.先验概率(由历史求因)3.后验概率(知果求因)4.似然函数(由因求果)5.有趣的野史--贝叶斯和似然之争-最大似然概率(MLE)-最大后验概率(MAE)-贝叶斯公式总结
zhoubin_dlut
·
2020-01-08 22:00
《Scikit-Learn与TensorFlow机器学习实用指南》 第10章 人工神经网络
(第一部分
机器学习基础
)第01章机器学习概览第02章一个完整的机器学习项目(上)第02章一个完整的机器学习项目(下)第03章分类第04章训练模型第05章支持向量机第06章决策树第07章集成学习和随机森林第
SeanCheney
·
2020-01-08 15:51
机器学习基础
——倒排索引与搜索引擎
本文始发于个人公众号:TechFlow今天的文章,我们继续探讨搜索引擎,和大家聊聊搜索引擎最重要的一环——倒排索引。在介绍倒排索引之前,我们先来看看什么是索引。索引是数据库当中的概念,维基百科中的说法是“数据库索引,是数据库管理系统中一个排序的数据结构,以协助快速查询、更新数据库表中数据”。可以简单地把索引当成是字典里的检索目录,我们比如我们要查一个叫“index”的单词,通过目录,可以快速地找到
TechFlow2019
·
2020-01-08 08:00
机器学习基础
--统计学入门--基本概念
1安慰剂:安慰剂效应(英语:placeboeffect),又名伪药效应、假药效应、代设剂效应;指病人虽然获得无效的治疗,但却“预料”或“相信”治疗有效,而让病患症状得到舒缓的现象。单盲(SingleBlinding):是一种简单实验方法,通过对试验对象保密,避免有意或无意在实验中造成偏颇。双盲:双盲是科学方法的一种,目的是避免研究结果受安慰剂效应或观察者偏向所影响。双盲试验通常在试验对象为人类时使
三江渔者
·
2020-01-08 04:21
信息论相关概念:熵 交叉熵 KL散度 JS散度
目录
机器学习基础
--信息论相关概念总结以及理解1.信息量(熵)2.KL散度3.交叉熵4.JS散度
机器学习基础
--信息论相关概念总结以及理解摘要:熵(entropy)、KL散度(Kullback-Leibler
zhoubin_dlut
·
2020-01-07 21:00
机器学习系列(三)——目标函数和损失函数
目录
机器学习基础
(三)4.目标函数4.1为什么要使用目标函数4.2目标函数的作用原理4.3为什么目标函数是负的4.4常见的目标函数5.损失函数5.1什么是损失函数5.2常见的损失函数5.3逻辑回归为什么使用对数损失函数
zhoubin_dlut
·
2020-01-07 10:00
【机器学习快讯】20150128机器学习快讯
机器学习基础
[维基]《Listofmachinelearningconcepts》机器学习概念集锦,统观机器学习全局的好材料。
JasonDing
·
2020-01-06 11:48
机器学习系列(二)——分类及回归问题
目录
机器学习基础
(二)3分类算法3.1常用分类算法的优缺点?
zhoubin_dlut
·
2020-01-02 21:00
机器学习基础
(3)- 数据平滑
本文主要用于理解数据平滑的原理,并且重点介绍了几种数据平滑的方法~基本目录如下:数据平滑的本质理解1.1为什么需要数据平滑?数据平滑的方法2.1加法平滑方法2.2Good-Turing估计法2.3Katz平滑方法------------------第一菇-数据平滑的本质理解------------------1.1为什么需要数据平滑?在传统AI领域,数据的平滑处理一般都是数据的预处理阶段的核心步骤
蘑菇轰炸机
·
2020-01-02 00:14
机器学习系列(一)——基础概念及分类
目录
机器学习基础
(一)1基本概念1.1ML各种常见算法图示1.2导数的计算1.3关于局部最优和全局最优的描述1.4大数据与深度学习之间的关系2机器学习的分类2.1监督学习2.2非监督式学习2.3半监督式学习
zhoubin_dlut
·
2020-01-01 22:00
【
机器学习基础
】机器学习中的三个技巧原则
奥卡姆剃刀原则(Occam'sRazor)有一句话是这样说的,"Anexplanationofthedatashouldbemadassimpleaspossible,butnosimpler"。在机器学习中其意义就是,对数据最简单的解释也就是最好的解释(Thesimplestmodelthatfitsthedataisalsothemostplausible)。比如上面的图片,右边是不是比左边解
JasonDing
·
2020-01-01 11:48
机器学习基础
——一文讲懂中文分词算法
在前文当中,我们介绍了搜索引擎的大致原理。有错过或者不熟悉的同学,可以点击下方的链接回顾一下前文的内容。ML基础——搜索引擎基本原理在介绍爬虫部分的时候,我们知道,爬虫在爬取到网页的内容之后,会先进行一些处理。首先要做的就是过滤掉HTML当中的各种标签信息,只保留最原生的网页内容。之后,程序会对这些文本内容提取关键词。今天我们就来讲讲关键词提取当中最重要的一个部分——中文分词。在世界上众多的语言当
TechFlow2019
·
2020-01-01 09:00
机器学习基础
-高数
1.低等数学知识大写-小写-英文-汉字注音-常用指代意义∏--π--pi--派--求积,圆周率(圆周÷直径≈3.1416)∑--σ,ς--sigma--西格玛--求和,对数函数====2.一元函数导数及其求导函数在处的极限为数学符号精确描述语言:对于任意给定的正数>0,(无论它多么小),总存在正数,使得当x满足不等式<时,对应的函数值f(x)都满足不等式:
bad_boy
·
2019-12-31 17:26
机器学习学习
学习的主线是《机器学习入门到实战MATLAB实践应用》作者:冷雨泉、张会文、张伟等1、
机器学习基础
数据集、样本集分类:结果为离散值时,如“成熟”、“不成熟”为二分类,涉及多个类别时,成为多分类。
顺其自然_6b5a
·
2019-12-31 13:17
华为任正非和余承东谈人工智能布局
华为将资助伯克利100万美元,重点聚焦深度学习、强化学习、
机器学习基础
理论、自然语言处理、计算机视觉等人工智能热点课题的研究。
Sting
·
2019-12-31 06:56
【
机器学习基础
】核支持向量机
引言在上一小节中,我们介绍了SVM的对偶形式,该形式也可以使用二次规划的方式来求解。这个对偶形式告诉我们SVM背后的一些集合意义,再者,有了这个对偶问题,我们要求解的难度和转换的高维空间的维度好像没有关系。在这一小节中,我们就之前未解决的问题继续探讨,使用核技巧的方式高效求解SVM。核技巧(KernelTrick)在上一小节二次规划问题中的Q矩阵的求解中,我们要计算Z空间的两个向量的内积,这个计算
JasonDing
·
2019-12-30 20:19
《Scikit-Learn与TensorFlow机器学习实用指南》 第07章 集成学习和随机森林
(第一部分
机器学习基础
)第01章机器学习概览第02章一个完整的机器学习项目(上)第02章一个完整的机器学习项目(下)第03章分类第04章训练模型第05章支持向量机第06章决策树第07章集成学习和随机森林第
SeanCheney
·
2019-12-29 22:24
【
机器学习基础
】机器学习算法的分类——关于如何选择机器学习算法和适用解决的问题
引子系统的学习机器学习课程让我觉得受益匪浅,有些基础问题的认识我觉得是非常有必要的,比如机器学习算法的类别。为什么这么说呢?我承认,作为初学者,可能无法在初期对一个学习的对象有全面而清晰的理解和审视,但是,对一些关键概念有一个初步并且较为清晰的认识,有助于让我们把握对问题的认识层次,说白了,就是帮助我们有目的的去学习新的知识,带着问题去学习,充满对解决问题的动力去实验,我觉得这种方式是有益并且良性
JasonDing
·
2019-12-29 07:18
自然语言处理(上交赵海老师)学习笔记之一:概要
二、先修课程:数学分析概率论与数理统计线向代数解析几何数据结构与算法基础编程语言:C/C++、python
机器学习基础
三、自然语言概念自然语言就是人类的语言,如英语、汉语等。
markkang
·
2019-12-27 23:00
自然语言处理(上交赵海老师)学习笔记之一:概要
二、先修课程:数学分析概率论与数理统计线向代数解析几何数据结构与算法基础编程语言:C/C++、python
机器学习基础
三、自然语言概念自然语言就是人类的语言,如英语、汉语等。
markkang
·
2019-12-27 23:00
【
机器学习基础
】理解为什么机器可以学习3——VC理论
引入上一小节中,“理解为什么机器可以学习——Hoeffding不等式”中,我们介绍了有限假设空间中的概率边界。在这篇文章中,我们将推广至无限假设空间中,进而引入VC理论。面临待解决的问题上一节,我们证明了PAC学习的样本复杂度随假设空间对数增长,但是以假设空间的个数|H|来刻画样本复制度存在缺点:对于|H|很大的情形,会使一个很弱的边界,即出现错误的概率很大对于无限假设空间的情形无法应用所以,我们
JasonDing
·
2019-12-26 14:56
Deep Learning 第五章
机器学习基础
5.1学习算法概念:对于某类任务T和性能度量P,一个计算机程序被认为可以从经验E中学习是指,通过经验E改进后,它在任务T上由性能度量P衡量的性能有所提升。5.1.1任务T常见机器学习任务5.1.2性能度量P准确率,错误率5.1.3经验E根据不同经验,分为无监督和监督学习算法5.1.4线性回归简单实例5.2容量、过拟合和欠拟合在先前未观测到的输入上表现良好的能力被称为泛化(generalizatio
SmileySure
·
2019-12-24 07:45
机器学习基础
一、关键术语训练集:通常我们为算法输入大量已分类数据作为算法的训练集。训练集是用于训练机器学习算法的数据样本集合。目标变量:机器学习算法的预测结果,在分类算法中目标变量的类型通常是标称型的,在回归算法中通常是连续型的。类别:我们通常将分类问题中的目标变量称为类别,并假定分类问题只存在有限个数的类别。监督学习:有明确的数据依赖,知道预测目标为什么。无监督学习:没有数据类别信息,不会给定目标值。用于执
快如闪电侠的瓜牛
·
2019-12-21 03:53
机器学习基础
(9)- 概率图模型
本文主要用于梳理概率图模型~用于自我温习回顾基础~基本目录如下:基础知识1.1概率图模型的分类1.2生成模型与判别模型的区别1.3朴素贝叶斯与逻辑回归的关系概率图模型2.1贝叶斯网络2.2马尔可夫模型2.3马尔可夫网络------------------第一菇-基础知识------------------优雅的概率图模型是我最喜欢的机器学习模型之一~故特开一篇完整的记录一下与概率图模型有关的知识点
蘑菇轰炸机
·
2019-12-21 03:38
上一页
28
29
30
31
32
33
34
35
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他