E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
训练样本
深度学习之图像增广
今天读到了图像增广这是书中它的解释:图像增广(imageaugmentation)技术通过对训练图像做一系列随机改变,来产生相似但又不同的
训练样本
,从而扩大训练数据集的规模。
吨一桶水果茶
·
2023-01-11 16:35
计算机视觉
人工智能
深度学习
动手学深度学习(二十六)——图像增广(一生二,二生三,三生万物?)
图像增广二、常用的图像增广方法1.翻转和裁减2.颜色改变3.叠加使用多种数据增广方法三、使用图像增广进行训练四、总结(干活分享)一、图像增广定义&解释:通过对训练图像做一系列随机改变,来产生相似但又不同的
训练样本
留小星
·
2023-01-11 16:34
动手学深度学习:pytorch
数据增广
augmentor
深度学习
图像识别
pytorch
深度学习——图像增广
图像增广图像增广是对训练图像做一系列随机改变,来产生相似但又不同的
训练样本
,从而扩大训练数据集的规模。我们深知大型数据集是成功应用深度神经网络的先决条件。
黎小强同学
·
2023-01-11 16:33
深度学习
计算机视觉
人工智能
【阶段三】Python机器学习11篇:机器学习项目实战:KNN(K近邻)回归模型
本篇的思维导图:项目实战(KNN回归模型)K近邻算法回归模型则将离待预测样本点最近的K个
训练样本
点的平均值进行待预测样本点的回归预测。
胖哥真不错
·
2023-01-11 11:08
python
KNNK近邻回归模型
模型评估
从入门到项目实战
论文阅读笔记 :FCOS:Fully Convolutional One-Stage Object Detection
二、为什么提出FCOS(优点)三、整体框架四、算法实现细节1、
训练样本
及回归目标2、网络输出3、损失函数4、测试5、FPN多级预测6、center-ness五、对FCOS进行的无成本改进:基于锚点检测器的缺点
屁话精
·
2023-01-11 11:34
目标检测
目标检测
深度学习
计算机视觉
论文阅读笔记《SIGMA: Semantic-complete Graph Matching for Domain Adaptive Object Detection》
简单的介绍一下领域自适应目标检测(DAOD)任务,通常做目标检测是假设
训练样本
和测试样本是来自同一个分布的(可以简单理解为同一个数据集),而实际上测试样本的来源可能非常多样(来自不同数据集)。
深视
·
2023-01-11 11:32
论文阅读笔记
图匹配
目标检测
图匹配
领域自适应
阅读笔记
集成学习(ensemble learning)
【1】集成学习利用一些方法改变原始
训练样本
的分布,构建多个不同的学习
Sunburst7
·
2023-01-11 01:39
机器学习
集成学习
机器学习
人工智能
机器学习之集成学习(Ensemble Learning)
文章目录0️⃣概念1️⃣分类2️⃣特点⚔好而不同⚔五大特点⚔思考3️⃣五大方法
训练样本
扰动:Boosting(例如:AdaBoost,GBDT)Bagging(例如:RandomForest)Bagging
小Aer
·
2023-01-11 01:07
#
算法
集成学习
神经网络参数量和计算量,神经网络参数个数计算
目前多数文献中提出的确定隐层节点数的计算公式都是针对
训练样本
任意多的情况,而且多数是针对最不利的情况,
普通网友
·
2023-01-10 19:08
神经网络
深度学习
人工智能
机器学习之Xgboost详解
简单介绍一下XGBoost首先需要说一说GBDT,它是一种基于boosting增强策略的加法模型,训练的时候采用前向分布算法进行贪婪的学习,每次迭代都学习一棵CART树来拟合之前t-1棵树的预测结果与
训练样本
真实值的残差
专注于计算机视觉的AndyJiang
·
2023-01-10 14:28
机器学习
机器学习
【小样本基础】有监督小样本,半监督小样本,无监督小样本
有监督小样本分类3.半监督小样本分类3.1基于一致性约束的方法3.2基于伪标注的方法4.无监督小样本分类4.1基于预置任务的无监督学习4.2基于对比学习的方法1.问题定义小样本分类问题是指只在给定少量的有标注
训练样本
上进行深度神经网络模型的训练
vector<>
·
2023-01-10 12:33
#
小样本
小样本
锚框分配算法详解,偏移量代码详解,nms详解
这些边界框称之为锚框(anchorbox)训练时,将每一个锚框视为一个
训练样本
。训练阶段,需要每个锚框的类别(class)和偏移量(offset),偏移量是真实边界框相对于锚框的偏移量。预测阶
暄染落墨
·
2023-01-10 11:30
目标检测
深度学习
batch normlization随记
2,防止过拟合,《一个样本只与minibatch中其他样本有相互关系;对于同一个
训练样本
,网络的输出会发生变化。
CV_er
·
2023-01-10 07:09
batch
深度学习
机器学习
bagging、boosting,adaboost,随机森林和GBDT
关于采样:bagging:总的
训练样本
个数P,每次随机抽取N(N=th),直到到达,某个叶子节点,并输出预测值。(2)重复执行(1)直到所有t棵树都输出了预测值。
海鸥-号
·
2023-01-09 16:27
机器学习
【机器学习系列】浙大机器学习课程-第一章概述
在人脸识别任务中,经验E往往指
训练样本
以及对应标签的集合。这些输入的数据都是人为手动添加标签,被称为监督学习。在自动驾驶任务中,经验E往往需要计算机和环境互动获得,计算机产生行
lrchang
·
2023-01-09 15:15
机器学习系列
机器学习
人工智能
算法
8、DeepFM介绍
简单线性模型,缺乏学习high-order特征的能力,很难从
训练样本
中学习到从未出现或极少出现的重要特征。深层模型善于捕捉high-order复杂特征。
nsq1101
·
2023-01-09 13:14
流量&搜广推
深度学习
自然语言处理
神经网络
基于朴素贝叶斯分类器的西瓜数据集 2.0 预测分类_机器学习之朴素贝叶斯
根据具体情况确定特征属性,并对每一特征属性进行划分,然后人工对一些待分类项进行分类,形成
训练样本
集合。这一阶段的输入是所有待分类数据,输出是特征
weixin_39678163
·
2023-01-09 11:32
2.0
预测分类
贝叶斯分类器的matlab实现
朴素贝叶斯算法matlab实现以及EM算法
采用草地潮湿原因模型的一个例子来求证贝叶斯概率以及条件概率、联合概率的分析,详见日志http://blog.sina.com.cn/s/blog_6c7b434d01013ufz.html进而对贝叶斯分类进行研究,采用classify函数进行对
训练样本
的划分
nancy_princess
·
2023-01-09 11:32
machine
learning
机器学习(西瓜书)10、降维与度量学习
样本的特征数称为维数(dimensionality),当维数非常大时,也就是现在所说的“维数灾难”,具体表现在:在高维情形下,数据样本将变得十分稀疏,因为此时要满足
训练样本
为“密采样”的总体样本数目是一个触不可及的天文数字
Handsome_Zpp
·
2023-01-08 19:55
机器学习
机器学习
数据挖掘
人工智能
【一文讲通】如何检测数据满足同分布
1统计指标的方法1.1群体稳定性指标(PopulationStabilityIndex,PSI)群体稳定性指标(PopulationStabilityIndex,PSI),衡量未来的样本(如测试集)及
训练样本
评分的分布比例是否保持一致
allein_STR
·
2023-01-08 18:50
统计学
Deep
learning
python
人工智能
python
算法
动手学深度学习笔记day3
在训练模型时,希望寻找一组参数(w∗,b∗),这组参数能最小化在所有
训练样本
上
努力学习的廖同学
·
2023-01-08 16:59
深度学习
机器学习——周志华(2)
学习器在训练集上的误差称为"训练误差"(trainingerror)或"经验误差"(empiricalerror),在新样本上的误差称为"泛化误差"(generalizationerror)2.过拟合、欠拟合当学习器把
训练样本
学得
Intelligenth
·
2023-01-08 15:51
机器学习
人工智能
深度学习
mlp 参数调优_AdaBoost算法介绍及其参数讲解
整个过程如下所示:1.先通过对N个
训练样本
的学习得到第一个弱分类器;2.将分错的样本和其他的新数据一起构成一个新的N个的
训练样本
,通过
设计师柠檬
·
2023-01-08 15:43
mlp
参数调优
《统计学习方法》第一章统计学习方法概论笔记
由条件概率表示的模型)与非概率模型(由决策函数表示的模型)2)策略2.1)损失函数与风险函数2.2)期望损失函数(期望风险函数)与经验风险函数期望风险函数:模型关于联合分布的期望损失:经验风险函数:模型关于
训练样本
集的平均损失
黑夜中坚持
·
2023-01-08 10:50
统计学习方法
统计学习方法
循环神经网络(RNN)
RNN通常用来处理序列数据,
训练样本
的格式为X=x(1)x(2)x(3)…x(t-1)x(t),在每个时间步t,该循环神经元接收x(t)和前一个时间步长的输出y(t-1)的输出,产生当前输出y(t)(不准确
zzzzzBelial
·
2023-01-08 07:04
机器学习
rnn
深度学习
人工智能
吴恩达机器学习课后作业——K-means 和PCA(主成分分析)
数据集下载位置(包含吴恩达机器学课后作业全部数据集):data二、作业分析1、无监督学习:根据类别未知(没有被标记)的
训练样本
解决模式识别中的各种问题,称之为无监督学习,“监督”的意思可以直观理解为“是否有标注的数据
荭凯
·
2023-01-08 02:57
机器学习
kmeans
聚类
决策树和随机森林算法原理和实现
算法原理决策树是选取数据中的特征,然后根据特征将
训练样本
切分,然后根据这个思想进行递归。决策树选取特征是通过信息熵和信息增益,选
想要快乐的小张
·
2023-01-07 18:05
机器学习
机器学习
sklearn.svc 参数
C越大,即对分错样本的惩罚程度越大,因此在
训练样本
中准确率越高,但是泛化能力降低,也就是对测试数据的分类准确率降低。
自我修炼的小石头
·
2023-01-07 10:38
深度学习训练营之鸟类识别
深度学习训练营之鸟类识别原文链接环境介绍前置工作设置GPU导入数据并进行查找数据处理可视化数据配置数据集残差网络的介绍构建残差网络模型训练开始编译结果可视化
训练样本
和测试样本预测原文链接本文为365天深度学习训练营中的学习记录博客参考文章
无你想你
·
2023-01-07 07:09
深度学习
深度学习
python
tensorflow
Paddle:手写字符识别模型(2)
数据的预处理读入数据划分数据集生成批次数据
训练样本
集乱序校验数据有效性实验开始之前,让我们先来导入相应的库:importosimportrandomimportpaddleimportpaddle.fluidasfluidfrompaddle.fluid.dygraph.nnimportConv2D
Mr_tianyanxiaobai
·
2023-01-07 07:30
Paddle
神经网络
机器学习(三)类别不平衡问题
类别不平衡问题1.Threshold-moving2.Over-sampling3.Under-sampling4.加权损失函数前言:之前所说的分类学习方法都是基于
训练样本
比例大致相同,不同类别之间样本数目相差不大的情况
Raywit
·
2023-01-07 06:19
机器学习
HMM隐马尔科夫算法(Hidden Markov Algorithm)初探
1.HMM背景0x1:概率模型-用概率分布的方式抽象事物的规律机器学习最重要的任务,是根据一些已观察到的证据(例如
训练样本
)来对感兴趣的未知变量(例如类别标记)进行估计和推测。
weixin_30294709
·
2023-01-07 03:54
人工智能
python
数据结构与算法
【PyTorch】使用MLP和CNN实现mnist的识别
摘要MNIST包括6万张28x28的
训练样本
,1万张测试样本,可以说是CV里的“HelloWord”。本文使用pytorch分别以多层感知器MLP和卷积神经网络CNN两种方法识别mnist数据集。
Sciengineer-Mike
·
2023-01-06 22:32
pytorch
cnn
深度学习
SML实现图像标注/分类
题目描述:任选某类图像为
训练样本
,编程实现其基于SML算法的类模型。要求图像的GMM为6个分量,类模型的GMM为10个分量。两级GMM模型的初值均由k-means算法获得。
piukaty
·
2023-01-06 15:50
python
分类
算法
计算机视觉
基于深度学习的小目标检测方法
②目标尺寸为原图的0.12、小目标检测面临的困难①底层特征缺乏语义信息.在现有的目标检测模型中,一般使用主干网络的底层特征检测小目标,但底层特征缺乏语义信息,给小目标的检测带来了一定的困难.②小目标的
训练样本
数据量较少
ZDA2022
·
2023-01-06 10:09
机器学习
大数据
机器学习
人工智能
机器学习常用损失函数小结
机器学习中的监督学习本质上是给定一系列
训练样本
,尝试学习的映射关系,使得给定一个,即便这个不在
训练样本
中,也能够得到尽量接近真实的输出。而损失函数(LossFunction)则是这个过
视学算法
·
2023-01-06 10:05
六个深度学习常用损失函数总览:基本形式、原理、特点
机器学习中的监督学习本质上是给定一系列
训练样本
,尝试学习的映射关系,使得给定一个,即便这个不在
训练样本
中,也能够得到尽量接近真实的输出。
数据派THU
·
2023-01-06 10:04
可视化
算法
python
神经网络
机器学习
【转】深度学习常用损失函数总览:基本形式、原理、特点
mp.weixin.qq.com/s/e84CSBSXGaHwTqKGEOwXCA作者|王桂波来源|https://zhuanlan.zhihu.com/p/77686118机器学习中的监督学习本质上是给定一系列
训练样本
Just Jump
·
2023-01-06 10:01
神经网络和深度学习
机器学习
损失函数
深度学习
机器学习
HALOCN运算功能函数快查
Chapter1:Classification1.1Gaussian-Mixture-Models1.add_sample_class_gmm功能:把一个
训练样本
添加到一个
denjackson
·
2023-01-06 09:47
图形开发
图像处理
图像处理:电网图资智能识别技术的研究的步骤
图像处理:电网图资智能识别技术的研究的步骤预处理算法滤波图像增强图像分割预处理算法结果:构成
训练样本
和测试样本特征提取形状进行归一化处理提取各阶矩特征值特征值进行归一化处理训练SVM得参数设计电气设备的分类器图像识别提取待识别的电气设备图像的特征向量与模板库中样本进行匹配采用投票法对待识别的电气设备进行分类图像识别算法结果
practiceandstudy
·
2023-01-06 09:38
文章
图像处理
电网图资
步骤
动手学深度学习笔记第三章(线性回归网络)
梯度下降小批量样本回归:随机抽样一个小批量的
训练样本
,然后计算小批量的平均损失关于模型参数的导数(梯度)。
冬青庭院
·
2023-01-06 04:08
我的动手学深度学习笔记
深度学习
线性回归
python
机器学习算法之GBDT
deffindLossAndSplit(x,y):#我们用x来表示训练数据#我们用y来表示训练数据的label#x[i]表示训练数据的第i个特征#x_i表示第i个
训练样本
#minLoss表示最
LIsaWinLee
·
2023-01-05 19:35
机器学习
机器学习
算法
人工智能
机器学习(周志华) 第十章降维与度量学习
其基本思想是:给定测试样本,基于某种距离度量找到与其最靠近的kkk个
训练样本
,根据这kkk个
YJY131248
·
2023-01-05 17:31
机器学习(NLP
神经网络等)
机器学习
近邻
基于BP弱分类器用Adaboost的强分类器
该代码为基于BP_Adaboost的强预测器预测%%清空环境变量clcclear%%下载数据loaddata1inputoutput%%权重初始化k=rand(1,2000);[m,n]=sort(k);%
训练样本
普通网友
·
2023-01-05 16:21
神经网络
关于Adaboos选择最优弱分类器过程的理解
在上述的特征中,第一中的特征值就是两个矩形的像素值之差,那么对于很多个
训练样本
,比如说现在有200幅正例图像,1000幅负例图像,那么在这些图像的相同的某个位置,计算得
lyzmyy
·
2023-01-05 16:50
计算机视觉
级联分类器
行人检测
算法
分类器
【机器学习】机器学习中常用的损失函数一览
这里明确下:损失函数LossFunction通常是针对单个
训练样本
而言的,给定一个模型输出y^\hat{y}y^和一个真实值yyy,损失函数输出一个实值损失L=f(yi,yi^)L=f(y_i,\hat
秋天的波
·
2023-01-05 16:40
机器学习
人工智能
深度学习
kmeans从0到1
在干什么聚类,就是你给我一堆数据,我能帮你把相近的数据分成一类,最终得到很多个类如下图,kmeans会帮我们把左边的点分成一类,右边的点分成一类,前置知识说白了监督学习和现在大部分的深度学习一样,需要
训练样本
并且一通训练后能推测或判断新的一个输入
WAWA战士
·
2023-01-05 14:33
深度学习
机器学习
机器学习——模型评估与选择
过拟合:模型把
训练样本
自身特点
MichstaBe沥川
·
2023-01-05 12:03
机器学习
机器学习
tensorflow过拟合和欠拟合
这个术语是指一个模型与
训练样本
太过匹配了,以至于用于验证和检测组时无法产生出好的结果。出现过拟合的表现是一个模型在训练集能达到100%或99%的准确度,而在测试数据上却只有50%。
Black_Friend
·
2023-01-05 09:16
tensorflow
神经网络
机器学习
深度学习
tensorflow
机器学习-笔记(三)-svm处理非线性问题
放宽限制条件的基本思路:对每个
训练样本
及标签(Xi,Yi)设置一个松弛变量增加新的条件:松弛变量>0,松弛变量的比例因子C是人为设定,这种事先人为设定的参数叫超参数
Blue_Y28
·
2023-01-05 03:48
机器学习
支持向量机
机器学习
人工智能
上一页
12
13
14
15
16
17
18
19
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他