E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
训练样本
k近邻算法原理
具体而言,k近邻算法将新的样本点与训练数据集中的样本进行距离度量,并选择与该样本距离最近的k个
训练样本
作为参考。
北辰Charih
·
2024-01-01 13:13
算法
机器学习---降维与度量学习
通过
训练样本
寻找一种能够合理描述当前样本相似度的距离度量,能够大大提高学习器的性能。度量学习是机器学习的一个重要分支,通过有标记样本或结合未标记样本,寻找一个能够
三月七꧁ ꧂
·
2023-12-31 17:55
机器学习
机器学习
学习
人工智能
受控代码生成-CCS 23
SecurityHardeningandAdversarialTesting1.Introduction2.Background3.受控代码生成4.SVEN4.1.Inference4.2.Training4.2.1.
训练样本
I still …
·
2023-12-30 21:50
code
embedding
代码生成
代码生成
机器学习之初识KNN算法——针对泰坦尼克号生存记录建模的两种方法
KNN算法原理本篇博客基于《机器学习实战》实现算法原理简要概括,重在代码实现k-近邻算法(kNN)的工作原理是:存在一个样本数据集合,称
训练样本
集,并且样本集中每个数据都存在标签,即样本集中每一数据与所属分类的对应关系
奶糖猫呀
·
2023-12-30 18:01
【机器学习】Adaboost
是一种通过改变
训练样本
权重来学习多个弱分类器并进行线性结合的过程。它的自适应在于:被前一个基本分类器误分类的样本的权值会增大,而正确分类的样本的权值会减小,并再次用来训练下一个基本分类器。
DonngZH
·
2023-12-30 10:50
人工智能
深度学习
机器学习
机器学习
python
人工智能
共享单车之租赁需求预估
/step1/bike_train.csv中,共享单车的训练集数据总共有8709个
训练样本
,
训练样本
中有12个特征(其中count为标签)。特征说明如下:datetime:时间。
柔雾
·
2023-12-30 09:42
python
大数据
数据分析
数据可视化
SVM(支持向量机)-机器学习
SVM的目标是找到这个超平面,使得距离超平面最近的
训练样本
点
普通研究者
·
2023-12-30 07:35
机器学习
机器学习
支持向量机
算法
17.深度学习之计算机视觉-1
17.1图像增广图像增广(imageaugmentation)技术通过对训练图像做一系列随机改变,来产生相似但又不同的
训练样本
,从而扩大训练数据集的规模。
大勇任卷舒
·
2023-12-30 05:20
数据集介绍【02】CIFAR10
这60000个样本被分成了50000个
训练样本
和10000个测试样本。
ihan1001
·
2023-12-29 03:22
数据集介绍
机器学习
python
python
机器学习的任务
监督学习(SupervisedLearning)在监督学习中,我们有一组带有标签(即已知输出)的
训练样本
作为输入。目标是通过学习输入与输出之间的映射关系,构建一个模型来预测新的输入对应的输出。
北辰Charih
·
2023-12-28 21:38
机器学习
人工智能
rasa框架意图分类embedding算法
算法模型intent_classifier_tensorflow_embedding点击此处获取算法代码算法框架算法框架算法思想把
训练样本
和意图编码到同一个向量空间,设计损失函数,使得样本与真实意图更相近
233彭于晏
·
2023-12-27 11:28
目标检测-Two Stage-Fast RCNN
更快的训练策略总结前言前文目标检测-TwoStage-SPPNet中提到SPPNet的主要缺点是:分开训练多个模型困难且复杂尽管比RCNN快10-100倍,但仍然很慢SPPNet无法更新空间金字塔池化层以下的权重,根本原因是,当每个
训练样本
来自不同影像时
学海一叶
·
2023-12-27 06:29
目标检测
目标检测
人工智能
计算机视觉
深度学习
cnn
机器学习——KNN算法
KNN的工作原理存在一个样本数据集合,也称作
训练样本
集,并且样本集中每个数据都存在标签,即我们知道样本集中每一个数据与所属分类的对应关系。
Mr_fengzi
·
2023-12-27 03:16
机器学习
KNN算法
机器学习笔记(三)简单手写识别
目标实现一个简单的手写识别的脚本,同样的,流程分五步走:读入数据初始化模型训练模型
训练样本
集乱序校验数据有效性前期准备前期需要将库导入,还需要进行一些初始化操作#数据处理部分之前的代码,加入部分数据处理的库点击查看代码
Leventure_轩先生
·
2023-12-26 08:47
机器学习
笔记
人工智能
机器学习笔记 - week5 -(九、神经网络的学习 Part1)
9.1代价函数在神经网络的学习中,我们需要用到新的标记方法,假设神经网络的
训练样本
有个,每个包含一组输入和一组输出信号:表示神经网络层数表示每层的neuron个数(表示输出层神经元个数)代表最后一层中处理单元的个数
火箭蛋头
·
2023-12-26 00:46
U-Net: Convolutional Networks for Biomedical Image Segmentation(CVPR2015)
文章目录AbstractIntroductionNetworkArchitectureConclusiontorchcodehh源代码Abstract人们普遍认为,深度网络的成功训练需要成千上万个带注释的
训练样本
怎么全是重名
·
2023-12-24 11:48
论文笔记
目标检测
计算机视觉
深度学习
模式识别与机器学习(九):Adaboost
假设有N个
训练样本
数据,则
从零开始的奋豆
·
2023-12-23 22:37
模式识别与机器学习
机器学习
人工智能
KNN算法及其优缺点
它的工作原理是通过在
训练样本
中找到距离待分类样本最近的K个样本,并根据这K个样本的标签来确定待分类样本的标签。KNN算法具有以下优点和缺点。优点:简单易懂:KNN算法是一种直观的算法,易于理解和实现。
天玑y
·
2023-12-23 07:49
KeepLearning
算法
人工智能
机器学习
大数据
k近邻算法
k-近邻算法
数据分析
深度学习中的损失函数
损失函数(lossfunction):用于定义单个
训练样本
预测值与真实值之间的误差代价函数(costfunction):用于定义单个批次/整个训练集样本预测值与真实值之间的累计误差。
智慧医疗探索者
·
2023-12-23 03:49
深度学习之pytorch
深度学习
人工智能
损失函数
MNIST的均值和方差(0.1307,), (0.3081,)是怎么计算出来的?
当你将
训练样本
从(6000,1,28,28)展开成(60000,28*28)后,用mean()函数可以轻松求出均值。同理用std()函数可以求出标准差完整代码importtorch
zycToWf
·
2023-12-23 03:12
pytorch
神经网络
深度学习
python
Python使用Pandas判断csv等格式文件中缺失字段
最近在构建
训练样本
时,碰见了csv某字段为空值or缺失值的情况,导致训练报错,因此需要在构建样本后,检查各字段的完整程度。
云从天上来
·
2023-12-23 02:52
自然语言处理NLP
python
pandas
开发语言
ICLR 2022:PiCO,基于对比消歧的偏标签学习 丨AI Drive
偏标签学习(PartialLabelLearning,PLL)是一个经典的弱监督学习问题,它允许每个
训练样本
关联一个候选的标签集合,适用于许多具有标签不确定性和歧义的的现实世界数据标注场景。
数据实战派
·
2023-12-21 14:46
AI
人工智能
学习
机器学习
ICLR
机器学习中的一些经典理论定理
PAC学习理论当使用机器学习方法来解决某个特定问题时,通常靠经验或者多次试验来选择合适的模型、
训练样本
数量以及学习算法收敛的速度等。
白牛DATA
·
2023-12-21 12:39
机器学习
人工智能
GBDT-梯度提升决策树
GradientBoostingDecisionTree,GBDT)是一种基于boosting集成学习思想的加法模型,训练时采用前向分布算法进行贪婪学习,每次迭代都学习一棵CART树来拟合之前t−1t-1t−1棵树的
训练样本
真实值的残差
沉住气CD
·
2023-12-21 02:33
机器学习常用算法
决策树
算法
机器学习
数据挖掘
AdaBoost提升方法
提升方法的基本思想是通过改变
训练样本
的权重学习多个分类器,并将这些线性分类器进行线性组合,提高分类性能。
沉住气CD
·
2023-12-21 02:02
机器学习常用算法
机器学习
算法
深度学习
数据挖掘
【基础篇】YOLO系列之玩转数据集增强(平移、翻转、噪声、cutout、亮度)篇
它在深度学习中具有重要的意义和重要性,主要体现在以下几个方面:扩充数据集:数据增强通过对原始数据应用不同的变换操作,可以生成更多、更多样化的
训练样本
。
w94ghz
·
2023-12-20 23:52
YOLOv8改进系列
YOLO改进系列
YOLO
人工智能
深度学习
python
人工智能-计算机视觉之图像增广
图像增广在对训练图像进行一系列的随机变化之后,生成相似但不同的
训练样本
,从而扩大了训练集的规模。此外,应用图像增广的原因是,随机改变
训练样本
可以减少模型对某些属性的依赖,从而提高模型的泛化能力。
白云如幻
·
2023-12-20 07:35
人工智能
PyTorch
代码笔记
人工智能
计算机视觉
MLOps在极狐GitLab 的现状和前瞻
训练样本
集、标注样本方法、数据集处理方式、训练时的超参和实际运行环境数据等等,和它都有关联,而且上述任何数据
极小狐
·
2023-12-20 07:27
人工智能
gitlab
ci/cd
workflow
devops
决策树算法一:hunt算法,信息增益(ID3)
根据
训练样本
建立。问题1:为什么费用变换率放第一个?根据特征建决策树,会有n棵树,找出最优树。问题2:当我们特征是连续值的时候,到底从哪里开始切分?连续值要改为离散的。
AppleYRY
·
2023-12-19 22:53
#
周志华西瓜书
过拟合与欠拟合
二、过拟合与欠拟合1、过拟合过拟合的定义:当学习器把
训练样本
学的“太好”了的时候,很可能已经把
训练样本
自身的一些特点当作了所有潜在样本都会具有的一般性质,这样就会导致泛化性能下降,这种现象称为过拟合。
奉系坤阀
·
2023-12-18 08:07
DeepLearning
人工智能
过拟合
欠拟合
算法
误差
数据集
模型容量
pytorch | epoch, batch, iteration
(也就是说,所有
训练样本
在神经网络中都进行了一次正向传播和一次反向传播)然而,当一个Epoch的样本(也就是所有的
训练样本
)数量可能太过庞大(对于计算机而言),就需要把它分成多个小块,也就是就是分成多个
Mine4ever_
·
2023-12-18 08:47
模型选择与评估
1.怎么样让模型表现更好使用更多的
训练样本
减少特征数量增加特征数量增加多项式特征降低正则化程度λ增强正则化程度λ如何选用这些手段需要我们对模型进行测试与评估,答案会在最后一小节给出2测试集的引入在学习时我们常常会通过上课和刷题来提高对知识的掌握能力
搁浅丶.
·
2023-12-18 07:15
机器学习与深度学习
机器学习
人工智能
机器学习入门-西瓜书总结笔记第十三章
西瓜书第十三章-半监督学习一、未标记样本二、生成式方法三、半监督SVM四、图半监督学习五、基于分歧的方法六、半监督聚类一、未标记样本形式化地看,有
训练样本
集Dl={(x1,y1),(x2,y2),⋯ ,
一入材料深似海
·
2023-12-18 06:14
学习笔记
机器学习
图片风控NSFW(not suit for work)-2 基于tf2模型微调
(在上篇博客已经讲述了怎么将原始模型转换为tensorflow2模型)思路1将开源雅虎nsfw模型转换为tensorflow2,见tensorflow2模型重构2准备
训练样本
,正负样本(比例4:1~1:
晚点吧
·
2023-12-17 08:06
tensorflow2
图片风控
nsfw
restNet50
预训练模型微调
随机森林
即每一棵树是从整个
训练样本
集当中选取固定数量的样本集,然后选取固定数量的特征集,从而构建
三块给你买麻糬_31c3
·
2023-12-17 07:31
GEE机器学习——利用kNN分类器器方法进行土地分类和精度评定
kNN分类器的原理是基于样本之间的距离度量,通过找到距离待分类样本最近的k个
训练样本
,并根据这些样本的标签进行投票来确定待分类样本的类别。
此星光明
·
2023-12-16 14:43
机器学习
机器学习
人工智能
分类
knn
gee
Landsat
云计算
机器学习---Boosting
弱学习机(weaklearner):对一定分布的
训练样本
给出假设(仅仅强于随机猜测),根据有云猜测可能会下雨。强学习
三月七꧁ ꧂
·
2023-12-16 14:04
机器学习
机器学习
boosting
人工智能
神经网络目前常用的公开数据集
1.MNIST手写数字识别数据集,包含60,000个
训练样本
和10,000个测试样本,每个样本是28x28的手写数字图片。
缘起性空、
·
2023-12-15 19:41
神经网络
深度学习
机器学习
自编码器 AutoEncoder
由于自动编码器通常应用于无监督学习,所以不需要对
训练样本
进行标记。自动编码器在图像重构、聚类、降维、自然语言翻译等方面应用广泛。1.数据表示数据表示(DataRepresentation)是使用另一种
uodgnez
·
2023-12-15 00:23
深度学习
图像处理
机器学习
人工智能
机器学习-聚类问题
前言聚类算法又叫做”无监督分类“,目标是通过对无标记
训练样本
来揭示数据的内在性质及规律,为进一步的数据分析提供基础。
懒猫gg
·
2023-12-14 23:11
机器学习
机器学习
聚类
[PyTorch][chapter 6][李宏毅深度学习][Logistic Regression]
训练样本
特别小的时候用GenerativeModel会有较好的效果,大的样本使用Discrim
明朝百晓生
·
2023-12-14 17:01
深度学习
pytorch
人工智能
机器学习及建模分类方法总结
有监督学习模型就是人们常说的分类,通过已有的
训练样本
(即已知数据以及其对应的输出)去训练得到一个最优模型(这个模型属于某个函数的集合,最优则表示在某个评价准则下是最佳的),再利用这个模型将所有的输入映射为相应的输出
vegene
·
2023-12-06 10:56
第一章 绪论
训练过程中使用的数据称为“训练数据”,其中每个样本称为一个“
训练样本
”,
训练样本
组成的集合称为“训练集”。
lammmya
·
2023-12-06 06:21
SVM
支持向量机方法是建立在统计学习理论的VC维理论和结构风险最小原理基础上的,根据有限的样本信息在模型的复杂性(即对特定
训练样本
的学习精度,Accuracy)和学习能力(即无错
Liopisces
·
2023-12-06 05:47
抑制过拟合——Dropout原理
抑制过拟合——Dropout原理Dropout的工作原理实验观察 在机器学习领域,尤其是当我们处理复杂的模型和有限的
训练样本
时,一个常见的问题是过拟合。
征途黯然.
·
2023-12-05 19:53
#
理论基础
人工智能
深度学习
Dropout
锚框【Anchor frame】
一类目标检测算法是基于锚框提出多个被称为锚框的区域(边缘框)预测每个锚框是否含有关注的物体如果是,预测从这个锚框到真实边缘框的偏移IoU-交并比IoU用来计算两个框之间的相似度0表示无重叠,1表示重合赋予锚框标号每个锚框是一个
训练样本
将每个锚框
你不困我困
·
2023-12-04 16:45
深度学习
目标跟踪
人工智能
计算机视觉
解决维度爆炸问题
事实上,这依赖于
训练样本
的数量、决策边界的复杂性和使用的是哪个分类器。如果理论上
训练样本
时无限多的,那么维度灾难不会发生,
羽天驿
·
2023-12-04 15:18
《西瓜书》-9.聚类
9.聚类9.1.聚类任务聚类是一种经典的无监督学习方法,无监督学习的目标是通过对无标记
训练样本
的学习,发掘和揭示数据集本身潜在的结构与规律,即不依赖于训练数据集的类标记信息。
ruoqi23
·
2023-12-04 04:15
笔记
聚类
人工智能
机器学习
Andrew Ng ML(4)——过拟合&正则化
overfitting(过拟合)特征过多会导致过拟合(或者说
训练样本
太少)线性回归中的过拟合逻辑回归中的过拟合Q:如何解决过拟合?
tmax
·
2023-12-04 02:50
Linguistic Steganalysis in Few-Shot Scenario论文阅读笔记
实验是对比在少样本的情况下,各个模型的效果,当
训练样本
少于10的时候(few-shot),上面提到的T
菜菜小堡
·
2023-12-03 15:17
论文笔记
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他