E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
训练样本
机器学习中的一些经典理论定理
PAC学习理论当使用机器学习方法来解决某个特定问题时,通常靠经验或者多次试验来选择合适的模型、
训练样本
数量以及学习算法收敛的速度等。
白牛DATA
·
2023-12-21 12:39
机器学习
人工智能
GBDT-梯度提升决策树
GradientBoostingDecisionTree,GBDT)是一种基于boosting集成学习思想的加法模型,训练时采用前向分布算法进行贪婪学习,每次迭代都学习一棵CART树来拟合之前t−1t-1t−1棵树的
训练样本
真实值的残差
沉住气CD
·
2023-12-21 02:33
机器学习常用算法
决策树
算法
机器学习
数据挖掘
AdaBoost提升方法
提升方法的基本思想是通过改变
训练样本
的权重学习多个分类器,并将这些线性分类器进行线性组合,提高分类性能。
沉住气CD
·
2023-12-21 02:02
机器学习常用算法
机器学习
算法
深度学习
数据挖掘
【基础篇】YOLO系列之玩转数据集增强(平移、翻转、噪声、cutout、亮度)篇
它在深度学习中具有重要的意义和重要性,主要体现在以下几个方面:扩充数据集:数据增强通过对原始数据应用不同的变换操作,可以生成更多、更多样化的
训练样本
。
w94ghz
·
2023-12-20 23:52
YOLOv8改进系列
YOLO改进系列
YOLO
人工智能
深度学习
python
人工智能-计算机视觉之图像增广
图像增广在对训练图像进行一系列的随机变化之后,生成相似但不同的
训练样本
,从而扩大了训练集的规模。此外,应用图像增广的原因是,随机改变
训练样本
可以减少模型对某些属性的依赖,从而提高模型的泛化能力。
白云如幻
·
2023-12-20 07:35
人工智能
PyTorch
代码笔记
人工智能
计算机视觉
MLOps在极狐GitLab 的现状和前瞻
训练样本
集、标注样本方法、数据集处理方式、训练时的超参和实际运行环境数据等等,和它都有关联,而且上述任何数据
极小狐
·
2023-12-20 07:27
人工智能
gitlab
ci/cd
workflow
devops
决策树算法一:hunt算法,信息增益(ID3)
根据
训练样本
建立。问题1:为什么费用变换率放第一个?根据特征建决策树,会有n棵树,找出最优树。问题2:当我们特征是连续值的时候,到底从哪里开始切分?连续值要改为离散的。
AppleYRY
·
2023-12-19 22:53
#
周志华西瓜书
过拟合与欠拟合
二、过拟合与欠拟合1、过拟合过拟合的定义:当学习器把
训练样本
学的“太好”了的时候,很可能已经把
训练样本
自身的一些特点当作了所有潜在样本都会具有的一般性质,这样就会导致泛化性能下降,这种现象称为过拟合。
奉系坤阀
·
2023-12-18 08:07
DeepLearning
人工智能
过拟合
欠拟合
算法
误差
数据集
模型容量
pytorch | epoch, batch, iteration
(也就是说,所有
训练样本
在神经网络中都进行了一次正向传播和一次反向传播)然而,当一个Epoch的样本(也就是所有的
训练样本
)数量可能太过庞大(对于计算机而言),就需要把它分成多个小块,也就是就是分成多个
Mine4ever_
·
2023-12-18 08:47
模型选择与评估
1.怎么样让模型表现更好使用更多的
训练样本
减少特征数量增加特征数量增加多项式特征降低正则化程度λ增强正则化程度λ如何选用这些手段需要我们对模型进行测试与评估,答案会在最后一小节给出2测试集的引入在学习时我们常常会通过上课和刷题来提高对知识的掌握能力
搁浅丶.
·
2023-12-18 07:15
机器学习与深度学习
机器学习
人工智能
机器学习入门-西瓜书总结笔记第十三章
西瓜书第十三章-半监督学习一、未标记样本二、生成式方法三、半监督SVM四、图半监督学习五、基于分歧的方法六、半监督聚类一、未标记样本形式化地看,有
训练样本
集Dl={(x1,y1),(x2,y2),⋯ ,
一入材料深似海
·
2023-12-18 06:14
学习笔记
机器学习
图片风控NSFW(not suit for work)-2 基于tf2模型微调
(在上篇博客已经讲述了怎么将原始模型转换为tensorflow2模型)思路1将开源雅虎nsfw模型转换为tensorflow2,见tensorflow2模型重构2准备
训练样本
,正负样本(比例4:1~1:
晚点吧
·
2023-12-17 08:06
tensorflow2
图片风控
nsfw
restNet50
预训练模型微调
随机森林
即每一棵树是从整个
训练样本
集当中选取固定数量的样本集,然后选取固定数量的特征集,从而构建
三块给你买麻糬_31c3
·
2023-12-17 07:31
GEE机器学习——利用kNN分类器器方法进行土地分类和精度评定
kNN分类器的原理是基于样本之间的距离度量,通过找到距离待分类样本最近的k个
训练样本
,并根据这些样本的标签进行投票来确定待分类样本的类别。
此星光明
·
2023-12-16 14:43
机器学习
机器学习
人工智能
分类
knn
gee
Landsat
云计算
机器学习---Boosting
弱学习机(weaklearner):对一定分布的
训练样本
给出假设(仅仅强于随机猜测),根据有云猜测可能会下雨。强学习
三月七꧁ ꧂
·
2023-12-16 14:04
机器学习
机器学习
boosting
人工智能
神经网络目前常用的公开数据集
1.MNIST手写数字识别数据集,包含60,000个
训练样本
和10,000个测试样本,每个样本是28x28的手写数字图片。
缘起性空、
·
2023-12-15 19:41
神经网络
深度学习
机器学习
自编码器 AutoEncoder
由于自动编码器通常应用于无监督学习,所以不需要对
训练样本
进行标记。自动编码器在图像重构、聚类、降维、自然语言翻译等方面应用广泛。1.数据表示数据表示(DataRepresentation)是使用另一种
uodgnez
·
2023-12-15 00:23
深度学习
图像处理
机器学习
人工智能
机器学习-聚类问题
前言聚类算法又叫做”无监督分类“,目标是通过对无标记
训练样本
来揭示数据的内在性质及规律,为进一步的数据分析提供基础。
懒猫gg
·
2023-12-14 23:11
机器学习
机器学习
聚类
[PyTorch][chapter 6][李宏毅深度学习][Logistic Regression]
训练样本
特别小的时候用GenerativeModel会有较好的效果,大的样本使用Discrim
明朝百晓生
·
2023-12-14 17:01
深度学习
pytorch
人工智能
机器学习及建模分类方法总结
有监督学习模型就是人们常说的分类,通过已有的
训练样本
(即已知数据以及其对应的输出)去训练得到一个最优模型(这个模型属于某个函数的集合,最优则表示在某个评价准则下是最佳的),再利用这个模型将所有的输入映射为相应的输出
vegene
·
2023-12-06 10:56
第一章 绪论
训练过程中使用的数据称为“训练数据”,其中每个样本称为一个“
训练样本
”,
训练样本
组成的集合称为“训练集”。
lammmya
·
2023-12-06 06:21
SVM
支持向量机方法是建立在统计学习理论的VC维理论和结构风险最小原理基础上的,根据有限的样本信息在模型的复杂性(即对特定
训练样本
的学习精度,Accuracy)和学习能力(即无错
Liopisces
·
2023-12-06 05:47
抑制过拟合——Dropout原理
抑制过拟合——Dropout原理Dropout的工作原理实验观察 在机器学习领域,尤其是当我们处理复杂的模型和有限的
训练样本
时,一个常见的问题是过拟合。
征途黯然.
·
2023-12-05 19:53
#
理论基础
人工智能
深度学习
Dropout
锚框【Anchor frame】
一类目标检测算法是基于锚框提出多个被称为锚框的区域(边缘框)预测每个锚框是否含有关注的物体如果是,预测从这个锚框到真实边缘框的偏移IoU-交并比IoU用来计算两个框之间的相似度0表示无重叠,1表示重合赋予锚框标号每个锚框是一个
训练样本
将每个锚框
你不困我困
·
2023-12-04 16:45
深度学习
目标跟踪
人工智能
计算机视觉
解决维度爆炸问题
事实上,这依赖于
训练样本
的数量、决策边界的复杂性和使用的是哪个分类器。如果理论上
训练样本
时无限多的,那么维度灾难不会发生,
羽天驿
·
2023-12-04 15:18
《西瓜书》-9.聚类
9.聚类9.1.聚类任务聚类是一种经典的无监督学习方法,无监督学习的目标是通过对无标记
训练样本
的学习,发掘和揭示数据集本身潜在的结构与规律,即不依赖于训练数据集的类标记信息。
ruoqi23
·
2023-12-04 04:15
笔记
聚类
人工智能
机器学习
Andrew Ng ML(4)——过拟合&正则化
overfitting(过拟合)特征过多会导致过拟合(或者说
训练样本
太少)线性回归中的过拟合逻辑回归中的过拟合Q:如何解决过拟合?
tmax
·
2023-12-04 02:50
Linguistic Steganalysis in Few-Shot Scenario论文阅读笔记
实验是对比在少样本的情况下,各个模型的效果,当
训练样本
少于10的时候(few-shot),上面提到的T
菜菜小堡
·
2023-12-03 15:17
论文笔记
神经网络 代价函数
神经网络代价函数首先引入一些便于稍后讨论的新标记方法:假设神经网络的
训练样本
有mmm个,每个包含一组输入xxx和一组输出信号yyy,LLL表示神经网络层数,SIS_ISI表示每层的neuron个数(SlS_lSl
小小程序○
·
2023-12-03 12:25
神经网络
人工智能
深度学习
线性可分SVM摘记
线性可分SVM摘记0.线性可分1.
训练样本
到分类面的距离2.函数间隔和几何间隔、(硬)间隔最大化3.支持向量\qquad线性可分的支持向量机是一种二分类模型,支持向量机通过核技巧可以成为非线性分类器。
zfoox
·
2023-12-02 19:11
支持向量机
算法
机器学习
机器学习笔记 - week6 -(十、应用机器学习的建议)
获得更多的
训练样本
——通常是有效的,但代价较大,下面的方法也可能有效,可考虑先采用下面的几种方法。
火箭蛋头
·
2023-12-02 16:14
数据预处理:随机裁剪放缩
具体来说,随机裁剪放缩可以通过随机裁剪和缩放原始图片来生成多个不同的
训练样本
,从而增加数据集的大小和多样性。这种技术在图像分类、目标检测和语义分割等任务中都有广泛的应用。
无妄无望
·
2023-12-01 23:34
学习
笔记
深度学习
【机器学习】集成学习算法之AdaBoost
假设有mmm个
训练样本
数据,则每一个
训练样本
最开始时,都被赋予相同的权值:w1=1mw_1=\large\frac{1}{m}w1=m1,这样
训练样本
集的初始权值分布D1(i)D_1(i)D1(i):D1
撕得失败的标签
·
2023-12-01 12:54
机器学习
机器学习
集成学习
算法
boosting
第二章 模型评估与选择
当学习器把
训练样本
学得“太好”了的时候,很可能已经把
训练样本
自身的一些特
lammmya
·
2023-12-01 12:36
手写图像数据集MNIST下载,处理为Numpy格式后存为.pkl格式
包含60,000个
训练样本
和标签,以及10,000个测试样本和标签。
大前浪
·
2023-12-01 11:31
Python
算法和AI思想
线性回归 多变量预测
多变量预测多元线性回归对于多个特征量(Features),规定符号表示:nnn特征的总数量x(i)x^{(i)}x(i)第i个
训练样本
的输入特征向量,iii表示的是一个索引(Index)xjix_j^ixji
小小程序○
·
2023-12-01 06:56
线性回归
机器学习
回归
线性回归 梯度下降
梯度下降算法在开始之前,为了方便解释,首先规定几个符号所代表的意义:mmm训练集中
训练样本
的数量XXX输入变量YYY输出变量(x,y)(x,y)(x,y)
训练样本
(xi,yi)(x^i,y^i)(xi,
小小程序○
·
2023-12-01 06:55
线性回归
机器学习
算法
python
【机器学习】针对分类器的三种攻击
数据投毒攻击给分类器的
训练样本
中加入对抗数据。最常见的攻击类型是模型倾斜(modelskewing)。攻击者尝试污染训练数据,改变分类器的分类边界。比如使用有问题的数据发送给模型
CamillaXu
·
2023-11-30 09:17
机器学习
人工智能
深度学习
安全
数据扩增(Data Augmentation)、正则化(Regularization)和早停止(Early Stopping)
EarlyStopping)是深度学习中常用的三种技术,它们有助于提高模型的泛化性能和防止过拟合数据扩增(DataAugmentation)定义:数据扩增是通过对训练集中的原始数据进行一系列变换,生成新的
训练样本
星宇星静
·
2023-11-30 09:51
深度学习
神经网络
卷积神经网络
大数据
what comprises a good talking-head video generation?: a survey and benchmark 初步解读
它有利于对抗性攻击的研究安全性并为监督学习方法提供更多的
训练样本
。挑
SuperGoodGame
·
2023-11-30 06:41
headTalker
实验室
人工智能
计算机视觉
吴恩达机器学习课后作业Python实现 03 Multi-class Classification & Neural Network
数据集介绍该数据集共有5000个
训练样本
,每个样本是20*20像素的灰度图像,每个像素为一个浮点数,表示该位置的灰度强度。20×20的像素网格被展开成一个400维的向量。在
shy~
·
2023-11-30 01:27
机器学习
python
机器学习
吴恩达机器学习课后作业Python实现 02 Logistic Regression
现在你拥有之前申请学生的可以用于训练逻辑回归的
训练样本
集。对于每一个
训练样本
,你有他们两次测试的评分和最后是被录取的结果。可以准备构建一个基于两次测试评分来评估录取可能性的分类模型来完成这个预测任务。
shy~
·
2023-11-30 01:57
机器学习
python
机器学习
2018-12-01机器学习打卡
就是我们要求的这个a和b,在将
训练样本
的x逐个带入后,得出的预测年薪y’=a+bx与真实年薪y整体的差异最小。y(
Rackar
·
2023-11-29 22:33
CNN实现手写数字识别(Pytorch)
CNN实现此处使用MNIST数据集,包含60000个
训练样本
和10000个测试样本。分为图片和
羊羊猪
·
2023-11-29 07:31
机器学习
cnn
pytorch
深度学习
神经网络
集成学习-Boosting和Bagging异同
它最初的思想很简单:使用一些(不同的)方法改变原始
训练样本
的分布,从而构建多个不同的分类器,并将这些分类器线性组合得到一个更强大的分类器,来做最后的决策。也就是常说的“三个臭皮匠顶个诸葛亮”的想
fpzRobert
·
2023-11-28 19:42
机器学习
集成学习
Boosting
Bagging
Bootstraping
机器学习
机器学习--------考试复习笔记
当然有一个大前提就是
训练样本
和测试样本必须要在同一分布下产生,否则学习无从谈起。Th
懒懒的程序媛
·
2023-11-28 15:19
机器学习
BP神经网络分类问题(含matlab仿真)
3d96dbf3f764神经网络的基础编程可参考博客:https://www.cnblogs.com/heaad/archive/2011/03/07/1976443.html例题详解利用BP网络进行模式识别,
训练样本
如下
小小尹先生
·
2023-11-28 07:53
学习心得
神经网络
深度学习
【机器学习】决策树
一、原理典型的决策树分类树与回归树如何用
训练样本
建立决策树分裂规则不纯度各种不纯度指标定义对于数值型特征和分类型特征分别详述确定分裂阈值和分裂特征的过程对于分类树和回归树如何确定叶子节点的值对于样本特征向量属性缺失情况如何处理对于属性缺失情况
十年一梦实验室
·
2023-11-28 07:46
机器学习
决策树
人工智能
算法
数据挖掘
geemap学习笔记 07 geemap 监督分类案例
文章目录前言一、监督分类介绍1.定义2.监督分类方法二、geemap中监督分类的详细步骤1.加载地图底图2.加载研究区影像数据3.创建
训练样本
4.分类器训练5.影像监督分类6.分类结果颜色修改7.添加图例和可视化展示
弈落馨
·
2023-11-27 10:34
geemap
python
分类
学习
机器学习
机器学习 - 聚类,聚类类别,聚类相似度,聚类性能度量
基于密度的聚类4.基于网格的聚类5.基于模型的聚类6.基于模糊的聚类三、聚类的相似度度量1.闵氏距离:2.马氏距离:参考资料聚类一、概念无监督学习:无监督学习(Unsupervisedlearning):
训练样本
的标记信息是未知的
pentiumCM
·
2023-11-26 20:39
数据挖掘
机器学习
python
聚类
机器学习
python
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他