E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
样本空间
概率论与随机过程笔记(1):
样本空间
与概率
概率论与随机过程笔记(1):
样本空间
与概率2019-10-27这部分的笔记依据DimitriP.Bertsekas和JohnN.Tsitsiklis的《概率导论》第1章内容(不包括1.6节组合数学的内容
Bingtuu
·
2020-07-10 16:40
概率论与随机过程
数学
概率论基本概念介绍
文章目录1.随机试验2.
样本空间
3.随机事件4.事件间的关系和事件的运算4.1事件关系4.2事件运算5.频率与概率5.1频率5.2概率6.古典概率模型7.条件概率8.独立性1.随机试验具有以下特征的试验
积跬步以致千里。
·
2020-07-10 16:57
概率论与数理统计
离散型随机变量及其常见分布律
文章目录1.随机变量2.离散型随机变量3.离散型随机变量常见分布3.1(0−1)(0-1)(0−1)分布3.2二项分布3.3泊松分布3.4几何分布3.5超几何分布1.随机变量设随机试验的
样本空间
为S={
积跬步以致千里。
·
2020-07-10 16:57
概率论与数理统计
概率论
从结构化风险最小化角度理解SVM
模型是选择一个概率分布模型或者决策函数空间来模拟
样本空间
。策略是优化模型所用到的目标函数。算法是解决最优化问题的方法。(具体可参见李航《统计学习
CrazStone
·
2020-07-10 02:47
Pattern
Recognition
Computer
Vision
机器学习之KNN(一)K近邻算法sklearn实现详解
K近邻算法做分类时,顾名思义,该算法的大致思想是把要预测的样本点丢到训练
样本空间
中,选取距离该样本最近的k个训练数据,然后根据投票的方式看哪个类别多,就觉得该样本是哪类数据。
繁华三千东流水
·
2020-07-09 21:51
机器学习算法思想及代码实现
机器学习之特征向量维度与
样本空间
样本空间
:以样本的属性为坐标轴张成的多维空间,也叫属性空间,输入空间。
chk_plusplus
·
2020-07-09 14:48
机器学习
概率论+往期考试卷
工程数学2018――2019学年一、单项选择题1.对掷一颗骰子的试验,将“出现偶数点”称为(D)A、
样本空间
B、必然事件C、不可能事件D、随机事件2.若事件A、B互不相容,则下列等式中未必成立的是(C)
zeng_jun_yv
·
2020-07-09 04:27
复习资料
Mahout Spectral聚类
谱聚类算法声称对
样本空间
的形状无限制,并能收敛于全局最优解。什么意思呢?我们知道,K-means聚类要求样本来自欧氏空间,从而可以计算欧氏距离,进而根据欧氏距离来决定一个样本点归属于哪个类。
Chungtow-Leo
·
2020-07-09 02:42
Hadoop技术
概率论与数理统计
样本空间
、随机事件
样本空间
:随机试验E的所有可能结果组成的集合称为E的
样本空间
(一般记作S)。样本点:
样本空间
的元素,即E的每个结果。
tiange7
·
2020-07-08 18:11
数学
svm超详细推导
支持向量机是一种二分类模型,他的基本想法就是基于训练集和
样本空间
中找到一个最好的划分超平面,将两类样本分割开来,首先你就要知道什么样的划分发才能称为“最”好划分看上图,二维平面上有两类样本,一类是用‘+
那什
·
2020-07-08 01:48
概率论基础——概率论公理
文章目录概率论基础——概率论公理1
样本空间
和事件1.1定义1.2相关定义2概率论公理2.1相对频率2.2概率论公理2.3由公理得到的命题3等可能结果的
样本空间
4概率是确信程度的度量概率论基础——概率论公理
就叫昵称吧
·
2020-07-08 00:18
概率论
概率论与数理统计考研复习
概率论与数理统计考研复习1随机试验的特点概念2
样本空间
、随机事件概念事件关系与事件的运算定律3频率与概率频率概率1随机试验的特点概念可以在相同的条件下重复地进行;每次试验的可能结果不止一个,并且都事先明确试验地所有可能结果
宣泠之
·
2020-07-07 22:21
概率论与数理统计基础知识
样本空间
、随机事件、基本事件。频率、概率、加法公式、乘法公式。古典概率:取球模型、分球模型。
诸葛蜗牛
·
2020-07-07 20:01
概率论与梳理统计
机器学习之朴素贝叶斯分类
熟悉以前所学的概念S:S是
样本空间
,是所有可能事件的总和。P(A):是
样本空间
S中A事件发生的概率,维恩图中绿色的部分。P(B):是
样本空间
S中B事件发生的概率,维恩图中蓝色的部分。P(A
ithinking110
·
2020-07-07 11:47
机器学习
特征降维
维度灾难最直接的后果就是过拟合现象,而发生该现象最根本的原因是:1,维度增加时,有限的
样本空间
会越来越稀疏。因此模型出现在训练集上表现良好,但对新数据缺乏泛化能力的现象。
OnlyQi
·
2020-07-06 23:51
机器学习
古典概率,先验概率,后验概率,贝叶斯分类器
两个特点:一是试验的
样本空间
有限,如掷硬币有正反两种结果,掷骰子有6种结果等;二是试验中每个结果出现的可能性相同,如硬币和骰子是均匀的前提下,掷硬币出现正反的可能性各为1/2,掷骰子出出各种点数的可能性各为
追求卓越583
·
2020-07-06 13:30
机器学习
概率论与数理统计学习总结(浙大第四版 第一章)
第一章概率论的基本概念1.随机试验2.
样本空间
、随机事件3.频率与概率4.等可能概型(古典概型)5.条件概率6.独立性7.小结1.随机试验随机试验:可以在相同的条件下进行;每次实验的可能结果不止一个,并且能够事先明确试验的所以可能结果
zhang___gang
·
2020-07-06 12:08
概率论与数理统计
深度学习(13)神经网络中损失函数的作用
表示指的是将
样本空间
映射到一个合适的特征空间,一般地,我们更青睐于这样的表示是低维度的,是更加稀疏交互的,同时也希望是相互独立的。
乘风踏浪来
·
2020-07-06 04:59
深度学习
通过取余或者murmur3 hash的简单分流算法
定义
样本空间
首先定义一个
样本空间
,比如[0,100],也就是0到100的闭区间[{"percent":20"alg":"A"},{"percent":50"alg":"B"},{"percent":70
InvQ
·
2020-07-05 19:49
设计模式
Java
机器学习-朴素贝叶斯法
由乘法定理可得:2.全概率公式设U为试验E的
样本空间
,A为E的事件,为U的一个划分,且,则3.贝叶斯公式设U为试验E的
样本空间
,A为E的事
大头少女火火火
·
2020-07-05 06:30
机器学习
机器学习
深度学习笔记(2) 概率与信息论
而信息论使我们能够量化概率分布中的不确定性总量2.概率的意义(1)频率派概率:概率与事件发生的频率相联系(频率派把需要推断的参数θ看做是固定的未知常数,即概率θ虽然是未知的,但最起码是确定的一个值,同时,样本X是随机的,所以频率派重点研究
样本空间
纳豆哥哥
·
2020-07-05 05:23
机器学习
基础数学
概率与数理统计学习总结二
老师课堂总结,禁止转载试验:我们将对自然现象的一次观察或进行一次科学试验随机试验可在相同的条件下重复试验每次试验的结果不止一个,且能事先明确所有可能的结果
样本空间
随机试验E的所有可能结果组成的集合称为E
海州湾
·
2020-07-05 04:59
概率与数理统计
《统计学习方法》-李航、《机器学习-西瓜书》-周志华总结+Python代码连载(七)--支持向量机SVM(Support vector machines)
一、支持向量机的概述给定训练样本集,分类学习最基本的想法就是基于训练集D在
样本空间
中找到一个划分超平面,将不同样本分开,支持向量机就是讨论并解决怎么找到这样的超平面。
xiao韩
·
2020-07-05 04:00
Python与AI
学习笔记
机器学习
机器学习理论笔记(4)
如图,取一个占整个单位体积比例为rr的样本,那么取样边长就是ep(r)=r1pep(r)=r1p那么如果
样本空间
维度是10,取样大小占总样本的1%,那么每一条边的平均取样边长度就是e10(0.01)≈0.63e10
江河湖海times
·
2020-07-04 19:39
机器学习理论知识
从主成分分析(PCA)到奇异值分解(SVD)
(举个例子,如……)PCA的降维思想是,在高维的
样本空间
中,寻找一个低维的超平面
ferriswym
·
2020-07-04 15:04
机器学习
概率论与数理统计(2)
2、古典概型的概率计算方法---P(A)=事件A包含的基本事件数n/
样本空间
的基本事件总数m=n/m.
样本空间
满足两个条件:1)
样本空间
的基本事件总数是有限多个;2)每个基本事件发生的概率都
baidu_24632543
·
2020-07-04 11:44
概率论--随机事件及运算
----------------------------------随机事件与
样本空间
----------------------------------------------------------
黎辰
·
2020-07-02 16:19
机器学习算法系列(五):bagging与随机森林对比及随机森林模型参数介绍
比如说
样本空间
有m个样本,当通过bootstrap方法采样时,我们有放回的采样m次,得到m个样本(其中有重复)。bagging思想就是以自助采样法为基础进行的。主要流
汤汤11
·
2020-07-02 16:20
机器学习系列
概率论基础知识总结
文章目录一.概率论基本概念1.什么是概率论2.随机试验3.
样本空间
4.事件运算关系5.事件运算律二.概率与古典概型1.概率的定义2.概率性质3.概率例题4.古典概型【排列组合求解】1.定义2.计算公式3
ARong.
·
2020-07-02 14:47
#
-----【算法学习】
概率论基础
街景字符识别
pytorch读取图像,用pytorch读取赛提数据及扩增方法库:opencvPillow处理效果详情见图片数据扩增目的增加训练集样本同时缓解过拟合也可以给数据集带来更强的泛化能力扩增方法:颜色空间,尺度空间到
样本空间
在数据扩增方法中从图像颜色
m0_48065974
·
2020-07-02 11:17
笔记
卷积(CNN)神经网络的选择、图片识别、降维
但如果这个
样本空间
里面,本身给的样本不是线性可分的,如果用一个线性分类器来做这个
logan_gu
·
2020-07-02 09:54
机器学习
机器学习入门学习笔记:(4.2)SVM的核函数和软间隔
然而,有时也许在原始的
样本空间
中找不到一个能正确分类的超平面。如上图所示,一堆数据在二维空间
hongbin_xu
·
2020-07-02 02:13
机器学习
机器学习笔记
机器学习系列(九)之——模型参数估计(最小二乘估计、最大似然估计、最大后验估计)
给定模型与参数,我们就能对
样本空间
进行描述。大家很自然地会问,这个描述是不是最不好的呢?我们用什么评价标准判断这个描述的好坏呢?这篇博客将一起探讨这个问题。
zxhohai
·
2020-07-02 02:06
机器学习
最小二乘估计
最大似然估计
最大后验估计
参数估计
机器学习
机器学习系列(四)——规则化(Regularize)
机器学习中,我们一直期望学习到一个泛化能力(generalization)强的函数,只有泛化能力强的模型才能很好地适用于整个
样本空间
,才能在新的样本点上表现良好。
zxhohai
·
2020-07-02 02:04
机器学习
期望、方差、标准差、标准化、归一化
一些基础的概念如:
样本空间
Ω、事件、随机变量、概率、联合
bohu83
·
2020-07-01 18:57
数学
概率统计学习第一天
随机事件和随机变量一、随机事件古典概型:简单来说,随机事件的
样本空间
只有有限个样本点,每个样本点出现等可能且每次试验有且仅有一个样本点发生。
学机器学习的机械工程师
·
2020-07-01 16:49
概率统计
分布模型和线性回归——数据分析与R语言 Lecture 3
分布模型和线性回归——数据分析与R语言Lecture3随机试验
样本空间
随机事件与必然事件概率——刻画随机事件出现可能性的指标分布R语言的各种分布函数常见的数据描述性分析多元数据的数据特征协方差与相关系数计算相关性检验相关分析与回归分析相关分析的例子
VX平台:交叉学科俱乐部
·
2020-07-01 14:10
R
OpenCV实战5: LBP级联分类器实现人脸检测
haarcascade_frontalface_alt.xml各标签LBP特征数据参看lbpcascade_frontalface.xml各标签HAAR与LBP的区别:HAAR特征是浮点数计算LBP特征是整数计算LBP训练需要的样本数量要比HAAR大同样的
样本空间
菜鸟知识搬运工
·
2020-07-01 03:36
人脸识别
使用PyTorch从理论到实践理解变分自编码器VAE
而VAE背后的关键点在于:为了从
样本空间
中找到能够生成合适输出的样本(就是能输出尽可能接近我们所规定分布的数据),它并没有试图去直接构造一个隐藏空间(隐藏变量所在的空间),而是构造
deephub
·
2020-07-01 00:13
生成对抗网络
神经网络
深度学习
VAE
第一章 绪论
基本概念数据集:数据样本(示例):数据集中每一个事件或对象属性(特征):事件或对象的性质属性值:属性的取值属性空间(
样本空间
,输入空间):各个属性张成的空间特征向量:各个属性的取值在空间中对应的向量学习
康君爱上了蕊酱
·
2020-06-30 21:00
概率论基本概念
云课堂笔记随机实验:在相同条件下可以重复进行每次进行都有至少两个结果,并且我们知道每个结果的概率每次进行实验不能预知结果是什么随机实验的结果称为随机事件随机事件分为基本事件和复合事件
样本空间
(Ω)全体基本事件组成的集合每个基本事件称为样本点样本点组成
样本空间
完备事件组
ciferlv
·
2020-06-30 17:08
《西瓜书》小记(一) 绪论
简介此章节以西瓜为主题介绍了一下机器学习的基本概念,如数据集、
样本空间
、特征向量等等,顺带介绍了一些机器学习的发展过程。
mulanfly
·
2020-06-30 16:41
机器学习(决策树三)——简述 ID3 C4.5 CART
传统ID3不支持连续变量;不支持缺省值(对缺省值敏感),如
样本空间
有三个特征,其中某样本缺少一个特征值;以某特征为标准
张连海
·
2020-06-30 14:50
机器学习
opencv DNN模块之人脸识别基于Torch openface
DNN人脸识别使用facenet模型基于Torch,对每张图片进行多层卷积处理,计算出128个向量使用
样本空间
中的每张图的128个向量与采样的128个向量进行余弦相似度比较,0度为1,表示方向相同,90
年纪青青
·
2020-06-30 12:40
opencv
机器学习基本概念
每条记录是关于一个事件或对象的描述属性attribute、特征feature:反应事件或对象在某方面的表现或性质的事项属性值attributevalue:属性上的取值属性空间attributespace、
样本空间
宾克斯的美酒_fb4c
·
2020-06-30 05:35
SVM学习——统计学习理论
存在一个未知的系统、给定的输入
样本空间
和这些输入样本通过处理后的输出。
xiaojiegege123456
·
2020-06-30 00:57
图像处理
西瓜书第一章笔记
数据集、样本、特征(属性)、特征空间(属性空间、
样本空间
、输入空间)、特征向量、维数;学习(训练)、训练数据、训练样本、假设、预测、标记、样例、标记空间(输出空间)、测试、测试样本;分类、回归、聚类、簇
小饕
·
2020-06-29 23:35
人工智能算法
周智华西瓜书精读笔记
概率论复习(一):随机变量,分布函数,概率密度
随机变量来源:某些随机试验的结果可以用数表示,如每个月的平均降水量,有些随机实验因为
样本空间
元素不是一个数,无法用数表示。为了将随机实验的结果和实数对应起来,引入随机变量。
2014乘风破浪2014
·
2020-06-29 20:35
自然语言处理
斯坦福 CS228 概率图模型中文讲义 二、概率复习
1.概率的基本元素为了定义集合上的概率,我们需要一些基本元素,
样本空间
Ω:随机实验所有结果的集合。在这里,每个结果ω∈Ω可以看作实验结束时真实世界状态的完整描述。
布客飞龙
·
2020-06-29 19:44
机器学习
支持向量机(SVM)的优缺点
SVM的训练结果,在SVM分类决策中起决定作用的是支持向量(4)SVM是一种有坚实理论基础的新颖的小样本学习方法(5)SVM的最终决策函数只由少数的支持向量所确定,计算的复杂性取决于支持向量的数目,而不是
样本空间
的维数
御剑归一
·
2020-06-29 19:51
算法
上一页
10
11
12
13
14
15
16
17
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他