E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
训练样本
Datawhale吃瓜教程-task1学习笔记(第一章和第二章)
用于训练过程中的数据称为训练数据,
训练样本
组成的集合称为训练集。模型有时也称为学习器,可看作学习算法在给定数据和参数空间上的实例化,学习过程是为了找出或逼近真相(ground-truth)。
___黎明的鱼
·
2022-12-13 21:58
吃瓜教程
机器学习
PCA降维+SVM 算法进行人脸识别
PCA降维+SVM算法进行人脸识别SVM基本原理:给定
训练样本
集,在特征空间上找到一个分离超平面,将样本点分到不同的类。其中当且存在唯一的分类超平面,使得样本点距离分类超平面的距离最大。
Miya Jia
·
2022-12-13 20:47
PCA
SVM
人脸识别
机器学习基础(八):降维与度量学习(KNN、MDS、线性降维、PCA、核化线性降维、流形学习、度量学习)
8、降维与度量学习8.1k近邻k-NearestNeighbor(KNN)学习常用的监督学习方法,“懒惰学习lazylearning”的代表给定测试样本,基于某种距离度量找出训练集中与其最靠近的k个
训练样本
ling零零零
·
2022-12-13 20:53
机器学习
机器学习
人工智能
sklearn
pca降维
算法
使用matlab进行人工神经网络拟合
已知函数z=sin(xy),采用人工神经网络实现该函数的拟合:定义:-π≤x≤π,-π≤y≤π,在x,y定义域中等距各取30各点,绘制z=sin(xy)图像;将上述数据集随机拆分成
训练样本
集(70%)、
深入浅出说电机
·
2022-12-13 19:35
神经网络拟合
matlab
matlab
神经网络
matlab神经网络求解最优化,matlab神经网络应用设计
MATLAB下神经网络的设计65我来说下我的理解,不一定对,一起讨论下吧1.100个字母,400个数字组成的
训练样本
应该是可以的,因为
训练样本
多的话会使整个网络的权值更加接近准确的权值,500个
训练样本
对于图像处理来说应该不算多
aifans_bert
·
2022-12-13 19:35
神经网络
matlab
神经网络
开发语言
人工智能
domain adaptation 领域自适应
源领域的
训练样本
数量一般远大于目标领域。迁移学习根据不同的迁移方式,分为两个类型,归纳迁移学习和转导迁移学习。
开心邮递员
·
2022-12-13 18:58
机器学习
深度学习
算法
【论文阅读|ICLR2020】Strategies for Pre-training Graph Neural Networks
github.com/snap-stanford/pretrain-gnns/论文地址:https://arxiv.org/abs/1905.12265v20摘要机器学习的许多应用需要一个模型来对分布上与
训练样本
不同的测试样本做出准确的预测
GNN_
·
2022-12-13 16:39
图神经网络
人工智能
深度学习
神经网络
机器学习基础学习笔记(七)机器学习算法的类型(监督,无监督,强化学习)
强化学习监督学习(SupervisedLearning)无监督学习(UnsupervisedLearning,UL)强化学习(ReinforcementLearning,RL)改进对比监督、无监督、强化学习按照
训练样本
提供的信息以及反馈方式的不同
Giao哥不瘦到100不改名
·
2022-12-13 15:02
深度学习学习笔记
算法
机器学习
人工智能
深度学习
机器学习与数据挖掘(上)——期末复习
机器学习与数据挖掘(上)——期末复习机器学习与数据挖掘(下)——期末复习预备概念过拟合与欠拟合过拟合过拟合定义当学习器把
训练样本
学的“太好”了的时候,很可能已经把
训练样本
自身的一些特点当作了所有潜在样本都会具有的一般性质
FiOQA
·
2022-12-13 13:52
数据挖掘
机器学习
决策树
机器学习实战教程(一):K-近邻算法
它的工作原理是:存在一个样本数据集合,也称作为
训练样本
集,并且样本集中每个数据都存在标签,即我们知道样本集中每一个数据与所属分类的对应关系。
M_Q_T
·
2022-12-13 09:48
机器学习
近邻算法
算法
python
K-近邻算法
机器学习菜鸟笔记01
模型评估与选择经验误差与过拟合一般把学习器的实际预测值与样本真实输出值之间的差异称为“误差”,学习器在训练集上的误差称为“训练误差”或者“经验误差”;学习器在新样本上的误差称为泛化误差过拟合:如果学习器将
训练样本
学习到误差接近为
产品阿Jing
·
2022-12-13 08:39
机器学习
数学建模之SPSS应用——分类预测(决策树)
二、常见算法(1)决策树算法核心问题有两个:第一,决策树的生长,也即利用
训练样本
集完成决策树的建立过程。第二,决策树的剪枝,也即利用测试样本集对所形成的决策树进行精简。(2
Jxufe渣渣斯
·
2022-12-13 07:00
数学建模
MAML (Model-Agnostic Meta-Learning) 解读
Meta-Learning:在大量的学习任务上训练模型,从而让模型仅用小数量的
训练样本
就可以学习新任务(加速fine-tune)。不同的任务有不同的模型。需要考虑将先前的经验与少量
千羽QY
·
2022-12-12 20:37
机器人-强化学习
算法
机器学习
人工智能
2.2 logistic回归损失函数(非常重要,深入理解)
上一节当中,为了能够训练logistic回归模型的参数w和b,需要定义一个成本函数使用logistic回归训练的成本函数为了让模型通过学习来调整参数,要给出一个含有m和
训练样本
的训练集很自然的,希望通过训练集找到参数
weixin_33861800
·
2022-12-12 20:13
人工智能
机器学习 jupyter Python无监督学习 聚类 k-meas算法
1.有监督学习与无监督学习1.1有监督学习又称监督学习,就是人们常说的分类,通过已有的
训练样本
(即已知数据以及其对应的输出)去训练得到一个最优模型,再利用这个模型将所有的输入映射为相应的输出。
十旬叶大叔
·
2022-12-12 18:41
#
机器学习
聚类
机器学习
python
深度学习
算法
决策树(python)
一、分类决策树1.决策树的划分依据信息增益信息增益率基尼值和基尼指数2.剪枝(对付"过拟合"的主要⼿段)在决策树学习中,为了尽可能正确分类
训练样本
,结点划分过程将不断重复,有时会造成决策树分⽀过多
herry57
·
2022-12-12 11:16
数学建模
决策树
机器学习
算法
深度学习概念——Epoch, Batch, Iteration
定义Epoch(时期)所有
训练样本
在神经网络中都进行了一次正向传播和一次反向传播的过程,称为1个EpochBatch(批)将
训练样本
分为若干个BatchBatch_size(批大小)每批样本的大小,即
训练样本
的大小除以
乁羐
·
2022-12-11 23:26
深度学习
batch
神经网络
【三种计算样本欧氏距离的方法——样本数据表示为矩阵】
假设图像大小为32*32*3=3072,提供5000个
训练样本
,500个测试样本,将图像矩阵展开为一维向量,则
训练样本
为5000*3072矩阵,测试样本为500*3072矩阵。
训练样本
乎啦啦
·
2022-12-11 20:52
python
矩阵
机器学习
python
U-Net网络:Convolutional Networks for Biomedical Image Segmentation
U-Net:卷积网络用于生物医学图像分割摘要 人们普遍认为,对深度网络作品的成功训练需要成千上万的注释
训练样本
。
落花满蹊径
·
2022-12-11 19:19
U-Net: Convolutional Networks for Biomedical Image Segmentation
Abstract人们普遍认为,成功训练深度网络需要数千个带注释的
训练样本
。在本文中,我们提出了一种网络和训练策略,该策略依赖于数据增强的强大使用来更有效地使用可用的注释样本。
fish小余儿
·
2022-12-11 19:47
3D目标检测
人工智能
深度学习
实例分割
语义分割
神经网络
感知器与BP神经网络学习笔记
单层感知器是最简单的神经网络,输入层和输出层直接相连,每一个输入端和其上的权值相乘,然后将这些乘积相加得到乘积和,这个结果与阈值相比较(一般为0),若大于阈值输出端就取1,反之,输出端取-11.2感知器分类算法步骤权重向量W,
训练样本
阿尔贝罗贝洛
·
2022-12-11 19:01
CVPR 2022 | 大幅减少零样本学习所需人工标注,马普所和北邮提出富含视觉信息的类别语义嵌入...
零样本学习旨在模仿人类的推理过程,利用可见类别的知识,对没有
训练样本
的不可见类别进行识别。
PaperWeekly
·
2022-12-11 16:15
聚类
计算机视觉
神经网络
机器学习
人工智能
yolov3 python代码_YOLOv3代码分析(Keras+Tensorflow)
图1检测Raccoon下面讲一下
训练样本
的设置和loss的计算。图2输入->输出
训练样本
设置参考上面图2,对于一个输入图
Amy青梅
·
2022-12-11 14:12
yolov3
python代码
抓住训练集中真正有用的样本,提升模型整体性能!
文|Severus编|小戏来自|夕小瑶的卖萌屋在任务中寻找到真正有用的
训练样本
,可以说一直是机器学习研究者们共同的诉求。
zenRRan
·
2022-12-11 09:19
大数据
算法
python
计算机视觉
神经网络
基于opencv-ANN的水果识别模型训练
机器视觉---ANN目录机器视觉---ANN前言一、简化
训练样本
二、生成训练数据1.读取样本2.读取标签三、训练模型1、转换数据集2、创建模型3、设置参数4、训练模型5、测试模型6、保存模型7、测试保存的模型总结前言本文通过
Ghoson-X
·
2022-12-11 01:23
opencv
人工智能
qt
k邻近算法
工作原理:首先存在一个样本数据集合(
训练样本
集),并且样本集中每个数据都存在标签(
Z_y_forever
·
2022-12-10 19:48
机器学习
python
算法
【开集识别论文解读】Classification-Reconstruction Learning for Open-Set Recognition——CVPR2019
通常,它们将概率分布拟合到某些特征空间中的
训练样本
中,并将异常值检测为未知值。对于表示样本的特征,几乎所有现有的深度开集分类器都依赖于通过完全监督学习获得的特征,如图1(a)所示
努力学习滴兔兔
·
2022-12-10 19:13
开集识别
深度学习
计算机视觉
人工智能
监督学习之分类算法-三三的机器学习笔记
K-近邻算法一句话介绍:在特征空间中,从
训练样本
集中选取特征与待分类样本最接近的K个样本,其中出现频率最高的分类标签作为待分类样本的预测分类,k值大小的选择没有理论选择最优,往往是结合K-折交叉验证得到最优
三三-Annie
·
2022-12-10 19:59
机器学习
监督学习
分类算法
自监督论文阅读笔记 Incremental-DETR:Incremental Few-Shot Object Detection via Self-Supervised Learning
之前的增量目标检测方法依赖于每个新类的丰富
训练样本
的可用性,这在很大程度上限制了新数据可能稀少的真实环境的可扩展性。
YoooooL_
·
2022-12-10 18:28
论文阅读笔记
深度学习
人工智能
目标检测
计算机视觉
cnn
AdaBoost中利用Haar特征进行人脸识别算法分析与总结2——级联分类器与检测过程
特别说明:在前期准备
训练样本
的时候,需要将样本归一化和灰度化到20*20的大小,这样每个样本的都是灰度图像并
liqiuguo
·
2022-12-10 16:22
数据挖掘
机器学习
算法
数据挖掘
机器学习——支持向量机
接着用数学严格定义
训练样本
以及他们的标签:假设:有个样本和他们的标签。其中规定:如果,则反之,线性可分的严格定义:一个
训练样本
集在线性可分,
一碗姜汤
·
2022-12-10 16:06
机器学习系列
机器学习
支持向量机
机器学习-手写数字识别系统
importnumpyasnpimportoperatorfromosimportlistdir"""分类函数"""defclassfy0(inX,dataSet,labels,k):#参数分别为测试样本,
训练样本
Vivinia_Vivinia
·
2022-12-10 08:29
机器学习
python
机器学习
k近邻算法
数字识别系统
神经网络——Python实现RBF 网络模型的实际应用
由于正则化网络的
训练样本
与“基函数”是一一对应的
小凌Candy
·
2022-12-10 06:19
神经网络
机器学习
算法
深度学习
python
神经网络
K-近邻(KNN)算法
kNN可以理解为给定
训练样本
,对于新的测试数据,在
训练样本
中找到与测试数据最临近的k个
训练样本
,根据最近的k个
训练样本
的类别,通过多数投票的方式进行预测。假设如下图,有两类不同的样本数据,分别
一本糊涂张
·
2022-12-10 03:18
机器学习
算法
python
人工智能
基于BP神经网络的电力负荷预测(Matlab代码实现)
2运行结果3完整Matlab代码实现%创建
训练样本
输入集clc,clearnum=24;%对应24个特征len=9;%
@橘柑橙柠桔柚
·
2022-12-09 18:08
电力系统
神经网络
matlab
人工智能
NLP:Epoch、Batch、Iteration
(也就是说,所有
训练样本
在神经网络中都进行了一次正向传播和一次反向传播)再通俗一点,一个Epoch就是将所有
训练样本
训练一次的过程。
专心致志写BUG
·
2022-12-09 16:35
NLP笔记
GCN:分布式训练大规模深度图神经网络
然而,图数据与视觉、自然语言等领域的数据不同,没有划分好的
训练样本
,很多
u013250861
·
2022-12-09 14:50
图神经网络/GNN
神经网络
人工智能
深度学习
迁移学习Transfer Learning
pytorch学习(十二)—迁移学习TransferLearning侠之大者_7d3f关注0.6992019.01.0210:28:59字数1,001阅读5,532前言在训练深度学习模型时,有时候我们没有海量的
训练样本
陈忠辉
·
2022-12-09 14:05
pytorc
cnn
python
人工智能
深度学习
不平衡数据采样方法整理
重采样方法是通过增加小众
训练样本
数的上采样和减少大众样本数的下采样使不平衡样本分布变平衡,从而提高分类器对小众的识别率。1.上采样(1)朴素随
renee-0327
·
2022-12-09 12:07
算法
不平衡数据
采样
类别不平衡问题的解决方法:过采样、欠采样和再平衡
类别不平衡问题:指的是在分类任务中不同类别的
训练样本
数目差异很大的问题。
weixin_43216017
·
2022-12-09 12:07
机器学习
编程
python
过采样
欠采样
再平衡
类别不平衡问题
机器学习
sklearn入门
KNN近邻算法k-近邻算法(kNN),它的工作原理是:存在一个样本数据集合,也称作
训练样本
集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分类的对应关系。
Mick..
·
2022-12-09 12:35
机器学习
sklearn
python
K-Means欠采样处理不平衡样本python实现
K-Means欠采样python实现1.K-Means欠采样原理为解决分类问题中效果受样本集类间不平衡,并提高
训练样本
的多样性,可以使用K-Means欠采样对样本进行平衡处理。
SQAHJSW
·
2022-12-09 12:32
python
聚类
机器学习
opencv将图片变成固定比例,多余部分黑色填充
opencv将图片变成固定比例,多余部分黑色填充背景:在深度学习的训练中,cafffe版本的yolo需要尝试一下将
训练样本
变为固定的3:5比例,但是不能将原图变形,其对应的xml文件也要能保持对应。
西红柿爱吃小番茄
·
2022-12-09 06:21
opencv
opencv
xml
roi
神经网络
训练样本
太少,神经网络常用训练方法
Hopfield神经网络有哪几种训练方法人工神经网络模型主要考虑网络连接的拓扑结构、神经元的特征、学习规则等。目前,已有近40种神经网络模型,其中有反传网络、感知器、自组织映射、Hopfield网络、波耳兹曼机、适应谐振理论等。根据连接的拓扑结构,神经网络模型可以分为:(1)前向网络网络中各个神经元接受前一级的输入,并输出到下一级,网络中没有反馈,可以用一个有向无环路图表示。这种网络实现信号从输入
aifans_bert
·
2022-12-08 23:14
神经网络
神经网络
深度学习
机器学习
epoch ,steps_per_epoch and batchsize解读
中文翻译为迭代,1个iteration等于使用batchsize个样本训练一次;一个迭代=一个正向通过+一个反向通过epoch:迭代次数,1个epoch等于使用训练集中的全部样本训练一次;一个epoch=所有
训练样本
的一个正向传递和一个反向传递举
chengchaowei
·
2022-12-08 22:23
keras steps_per_epoch=sample_numbers // batch_size
oneepoch:所有的
训练样本
完成一次Forword运算以及一次BP运算batchsize:一次Forword运算以及BP运算中所需要的
训练样本
数目,其实深度学习每一次参数的更新所需要损失函数并不是由一个
水野与小太郎
·
2022-12-08 22:50
机器学习
数据集的划分——Python实现
1.训练误差=经验误差(×)原因:很可能出现过拟合,也有可能出现欠拟合过拟合:学习器把
训练样本
学的太好了,以至于把
训练样本
自身的
thisissally
·
2022-12-08 20:48
建模
机器学习
决策树——剪枝
决策树——剪枝剪枝的意义为了尽可能正确分类
训练样本
,节点的划分过程会不断重复直到不能再分,这样就可能对
训练样本
学习的“太好”了,把
训练样本
的一些特点当做所有数据都具有的一般性质,从而导致过拟合。
。。。 。。。。。
·
2022-12-08 19:10
决策树
算法
AI-机器学习-自学笔记(十一)提升算法
它可以用来提高其它弱分类算法的识别率,也就是将其他的弱分类算法作为基分类算法放于提升框架中,通过提升框架对
训练样本
集的操作
阿尔法羊
·
2022-12-08 18:35
AI自学笔记
机器学习
人工智能
算法
机器学习之算法案例手写数字识别
算法案例手写数字识别MNIST数据集是机器学习领域中非常经典的一个数据集,由60000个
训练样本
和10000个测试样本组成,每个样本都是一张28*28像素的灰度手写数字图片。
南蓬幽
·
2022-12-08 17:04
机器学习
Python
机器学习
算法
python
计算机视觉
人工智能
上一页
17
18
19
20
21
22
23
24
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他