E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
训练样本
基于计算机视觉(opencv)的运动计数(运动辅助)系统-源码+注释+报告
需要源码的小伙伴可以先关注我,私信或评论与我联系,大家一起学习此文目录基于计算机视觉(opencv)的运动计数系统1、项目简介1.1研究背景及意义1.2项目设计方案2、程序设计2.1程序设计方案2.1.1建立
训练样本
Svan.
·
2023-02-05 10:44
计算机视觉
opencv
人工智能
cnn
python
MATLAB机器学习方法之KNN
KNN算法具体步骤:1、初始化距离为最大值2、计算未知样本和每个
训练样本
的距离dist3、得到目前k个最邻近样本中的最大距离4、如果dist小于最大距离,则将该
训练样本
作为K近邻样本5、统计k个最近邻样本中每个类别出现的次数
QLY_8829861
·
2023-02-05 09:57
matlab
人工智能
【机器学习入门】常用损失函数以及简介
在正文开始之前,需要先来阐述几个需要区分的概念,损失函数、代价函数以及目标函数:损失函数(LossFunction)通常是针对单个
训练样本
而言,给定一个模型输出和一个真实y,损失函数输出一个实值损失。
北国学已尽
·
2023-02-05 09:42
机器学习入门
深度学习
人工智能
matlab新手入门 | 基于GA-BP神经网络的预测模型(含完整代码)
一、主函数main.m%%加载神经网络的
训练样本
测试样本每行一个样本每列一个特征输入P输出Tloadinpu
weixin_45581954
·
2023-02-04 19:09
matlab
神经网络
算法
启发式算法
一、神经网络基础
sigmoid函数:sigmoid函数-73728182.logistic回归的损失函数定义一个凸函数(容易优化),来衡量预测值和真实值之前的差距,即衡量模型在
训练样本
上的
屉屉
·
2023-02-04 15:22
【图像识别】基于ORL数据库的PCA人脸识别系统matlab源码
1.PCA人脸识别操作流程在平时的研究中,我总结的PCA人脸识别的主要流程如下图所示:图1PCA人脸识别流程图通过上图的PCA人脸识别流程可以看出,PCA方法可以总结为以下几个阶段:
训练样本
、特征提取、
Matlab科研辅导帮
·
2023-02-04 15:35
图像处理
matlab
big
data
机器学习
机器学习之用Python实现最小二乘法预测房价
使用最小二乘法进行房价预测:给定
训练样本
集合如下:求解:当房屋面积为55平方时,租赁价格是多少?给出代码与运行结果图。
南蓬幽
·
2023-02-04 13:47
Python
机器学习
python
机器学习
最小二乘法
深度学习
矩阵
openmmlab打卡笔记1
由于不是计算机系科班出身,有一些听了就在想为什么会是这样呢,所以记得比较凌乱1、拟合问题用他的话来比喻:过拟合:平时考得好,高考没考好拟合:平时考得好,高考考得好欠拟合:平时没考好,高考也没考好解决方法:过拟合:扩充
训练样本
卖小麦←_←
·
2023-02-04 12:29
python
计算机视觉
深度学习
神经网络
Dropout与过拟合
一小批
训练样本
执行完这个过程后就按照随机梯
z1185196212
·
2023-02-04 08:15
笔记
深度学习
决策树的剪枝处理
在决策树的学习过程中,为了尽可能地正确分类
训练样本
,节点划分得不断重复,有时候会造成决策树的分支过多,这时候就是算法在
训练样本
上学得太好,导致把训练集本身的一些特点作为所有数据所有数据都有的一般性质(实际上新数据中可能没有这些特点
shitoucoming
·
2023-02-04 08:02
机器学习
决策树
剪枝
决策树-剪枝方法
Reduced-ErrorPruning(REP,错误率降低剪枝)、对于决策树中非叶子节点,我们尝试替换成叶子节点(使用
训练样本
中存在最多的那个类来代替),然后比较这两个决策树在测试集中的表现,如果错误率降低
Claroja
·
2023-02-04 08:02
Python
python
anchor自适应锚框计算
自适应锚框计算预定义边框就是一组预设的边框,在训练时,以真实的边框位置相对于预设边框的偏移来构建(也就是我们打下的标签)
训练样本
。
黑猫爱小鹿
·
2023-02-03 23:06
yolov5
深度学习
pytorch
机器学习
推荐系统学习
服务端实时数据(秒级延迟)--》流处理平台spark等(分钟延迟)---》大数据平台(小时级延迟)离线数据处理流计算平台数据的使用:实时更新特征,供模型使用实时产出模型效果,abtest批数据处理使用:生成
训练样本
qidreamcometrue
·
2023-02-03 22:15
采样softmax(Sampled softmax )
在完整的softmax训练中,对于每个
训练样本
,都需要对所有的分类计算
manlier
·
2023-02-03 19:49
粒子群算法优化BP神经网络
定义:粒子群中每个粒子的位置表示BP神经网络当前迭代中权值的集合,每个粒子的维数由网络中起连接作用的权值的数量和阈值个数决定,以给定
训练样本
集的神经网络输出误差作为神经网络训练问题的适应度函数,适应度值表示神经网络的误差
心飞扬(●ˇ∀ˇ●)
·
2023-02-03 13:47
深度学习
粒子群算法
神经网络
吴恩达deeplearning.ai神经网络和深度学习(Ⅰ)(第一周-深度学习概论)
1.神经网络的定义神经网络就是按照一定规则将多个神经元连接起来的网络1.3用神经网络进行监督学习1.监督学习与非监督学习监督式学习与非监督式学习本质区别就是是否已知
训练样本
的输出y。在实际应
一去不复返的通信er
·
2023-02-03 11:16
神经网络
机器学习
人工智能
算法
深度学习
【聚类·分类·回归】数据挖掘之聚类、分类、回归
例如向模型输入人的各种数据的
训练样本
,产生“输入一个人的数据,判断是否患有癌症”的结果,结果必定是离散的,只有“是”或“否”。分类方法是一种对离散型随机变量建模或预测的监督学习算法。
爱萨萨
·
2023-02-02 17:36
技术-大数据
大数据
数据挖掘
分类
聚类
回归
Locally Weighted Regression
我们使用了如下变量:\(x\)—输入变量/特征;\(y\)—目标变量;\((x,y)\)—单个
训练样本
;\(m\)—训练集中的样本数目;\(n\)—特征维度;\((x^{(i)},y^{(i)})\)—
weixin_30685047
·
2023-02-02 12:29
数据结构与算法
NNDL 实验三 线性回归
2.2线性回归2.2.1数据集构建构造一个小的回归数据集:生成150个带噪音的样本,其中100个
训练样本
,50个测试样本,并打印出训练数据的可视化分布。
uvuvuvw
·
2023-02-02 09:34
线性回归
算法
回归
深度学习笔记----数据增强
图像增广(imageaugmentation)技术通过对训练图像做一系列随机改变,来产生相似但又不同的
训练样本
,从而扩大训练数据集的规模。
Agetha
·
2023-02-02 08:44
深度学习
《机器学习》理论——速读学习2 常用方法(3)
time:2021-12-24学习目标:我需要了解神经网络除了工程化部分之外的更多内容,以便于在实际有效数据中可以获得抽象模型的能力;第9章聚类第10章降维与度量学习第9章聚类9.1聚类任务无监督学习中,
训练样本
的标记信息未知
baby_hua
·
2023-02-01 20:23
深度学习
机器学习
聚类
数据挖掘
客户分群-聚类算法
机器学习算法分类有监督学习有
训练样本
分类模型预测模型无监督学习无
训练样本
关联模型聚类模型聚类算法介绍聚类就是将一组对象划分成簇(cluster),使簇内对象相似性尽量大,而簇间对象相似性尽量小。
行走记忆时光
·
2023-02-01 12:45
KNN最近邻分类算法的简单过程
1.计算测试样本点到所有
训练样本
点的距离,然后将所有的距离排序;2.选取K个最小距离的样本点,依据K个样本点的标签进行投票分类。
田问渠Carlnait
·
2023-02-01 10:53
机器学习
KNN
【机器学习】周志华西瓜书第十章降维与度量学习习题--实现k近邻分类器,在西瓜数据集3.0上比较分界边界与决策树分类边界的异同
(2)kNN算法原理阐述k近邻(k-NearestNeighbor,简称kNN)学习是一种常用的监督学习方法,其工作机制非常简单:给定测试样本,基于某种距离度量找出训练集中与其最靠近的k个
训练样本
,然后基于这
弓长纟隹为
·
2023-02-01 07:09
决策树
算法
机器学习(八):SVM支持向量机原理及案例分析
它的目的是寻找一个超平面来对样本进行分割,分割的原理则是间隔最大化,最终转化为一个凸二次规划问题来求解,由简至繁的模型包括:当
训练样本
线性可分时,通过硬间隔最大化,学习一个线性可分支持向量机当
训练样本
近似线性可分时
没才艺的华哥
·
2023-02-01 05:41
9&10. 基于函数逼近的同轨策略方法
基于函数逼近的同轨策略方法9.策略评估9.1基于参数化的函数逼近9.1.1参数求解方法9.1.1
训练样本
9.1.1.2预测目标9.1.1.3更新方法9.1.2参数化函数逼近方法9.1.2.1线性方法9.1.2.2
少时诵诗书-
·
2023-02-01 00:49
强化学习与多智能体
算法
人工智能
从宏观上了解机器学习-模型评估与选择1
经验误差与过拟合在学习过程中,我们希望得到一个在新样本上能表现得很好的学习器,为了达到这个目的,应该从
训练样本
中尽可能的学出适用于所有潜在样本的普遍规律,然而,当学习器把
训练样本
学的太好的时候,很可能已经把
训练样本
自身的一些特点当做了所有潜在样本都会具有的一般性质
3between7
·
2023-01-31 17:04
机器学习系列(吴恩达版)
无监督学习(UnsupervisedLearning)根据没有被标记的
训练样本
,来自动完成分类等操作。
MDRG_Learning
·
2023-01-31 11:34
机器学习
机器学习
深度学习
人工智能
算法
SetFit: 高效的无提示少样本学习
与标准微调相比,SetFit能更高效地利用
训练样本
,同时对噪声也更鲁棒。如何处理少标签或无标签的训练数据是每个数据科学家的梦魇。
·
2023-01-31 11:40
人工智能huggingface
一种基于DCNN模型的云检测方法介绍
该方法利用Fmask对Landsat8数据集提取云范围作为
训练样本
,采用DCNN模型进行训练。并在训练完成后利用包含不同下垫面的测试样本对模型性能进行检测,以验证本文方法
YuanYWRS
·
2023-01-31 09:03
人工智能
遥感
UNET
FMASK
深度学习可解释性研究(二): Understanding Black-box Predictions via Influence Functions(详细公式推导)
假如说,现在我们做了一个图像分类模型,我们在训练集中挑选一个
训练样本
,添加一些扰动(在这里就是对图像增加噪声,如果是N
JessssseYule
·
2023-01-30 21:02
可解释性
96. BERT预训练代码
利用实现的BERT模型和从WikiText-2数据集生成的预
训练样本
,我们将在本节中在WikiText-2数据集上对BERT进行预训练。
chnyi6_ya
·
2023-01-30 18:02
深度学习
bert
自然语言处理
深度学习
【Get】用深度学习识别手写数字
这个数据集拥有60000个
训练样本
,和10000个测试样本。
CoorChice
·
2023-01-30 15:45
机器学习
人工智能
Ai入门
机器学习
手写数据识别
CoorChice
FGSM和PGD算法的介绍与实际应用
对抗训练的核心步骤是:用被对抗性样本污染过的
训练样本
来训练模型,直
栖陆@.
·
2023-01-30 14:21
算法
深度学习
python
【无标题】深度学习期末复习要点
无监督学习:根据类别未知(没有被标记)的
训练样本
解决模式识别中的各种问题,称之为无监督学习。自监督学习:自监督学习主
cw11lq
·
2023-01-30 12:16
深度学习
关于随机梯度下降法小心得
上述代码一次运行后的结果如下表明陷入了loss的局部极小值其他几次运行的结果也不稳定为了解释上述原因首先上面用的loss是梯度下降法就是每次迭代时计算的是
训练样本
的误差的和(也叫批量学习batchlearning
深海的幽灵
·
2023-01-30 12:00
机器学习笔记
深度学习
神经网络
【机器学习06】多项式回归
7多项式回归若希望回归模型更好的拟合
训练样本
数据,可以使用多项式回归器一元多项式回归hθ(x)=θo+θ1x+θ2x2+θ3x3+…+θnxn将高次项看做对一次项特征(自变量)的扩展得到:hθ(x)=θo
执志@☆飞扬か
·
2023-01-30 09:36
Python机器学习
机器学习
回归
sklearn
python
神经网络学习之感知器
误差修正学习策略:设定
训练样本
和期望输出,然后调整实际输出和期望输出之差。参数自动
Vechin-Huang
·
2023-01-30 09:31
人工智能
人工智能
神经网络
机器学习
深度学习
深度学习(1):BP神经网络实现银行客户流失预测
一.数据准备1.数据集:"select-data.csv"作为
训练样本
,数据预处理方式:归一化、数值化。
流萤数点
·
2023-01-30 07:42
python
数据挖掘
人工智能
[机器学习]损失函数DLC
在模型优化过程中一般表述为:或与针对整个训练集的代价函数(CostFunction)不同,损失函数通常仅针对单个
训练样本
。
ViperL1
·
2023-01-29 17:52
机器学习
深度学习
人工智能
随机森林(Random Forest)算法
一、原理:随机森林由LeoBreiman(2001)提出的一种分类算法,它通过自助法(bootstrap)重采样技术,从原始
训练样本
集N中有放回地重复随机抽取n个样本生成新的
训练样本
集合训练决策树,然后按以上步骤生成
纸上得来终觉浅~
·
2023-01-29 13:23
机器学习
随机森林
使用随机森林算法实现鸢尾花案例
随机森林的构建:首先利用bootstrap方法有放回地从原始训练集中随机抽取n个样本,并构建n个决策树;然后假设在
训练样本
数据中有m个特征,那么每次分
QYHuiiQ
·
2023-01-29 12:39
机器学习
随机森林
鸢尾花
神经网络论文复现结果不一样,神经网络样本太少
样本质量是
训练样本
分布反映总体分布的程度,或者说由整个
训练样本
集提供的信息量。样本质量可以强烈地影响神经网络的泛化能力,改进
训练样本
质量,也是改善神经网络泛化能力的一种重要方法。
阳阳2013哈哈
·
2023-01-29 11:07
学习教程
神经网络
深度学习
机器学习
cnn
《机器学习》笔记:第二章模型评估与选择(Python代码实现)
2.1经验误差与过拟合(一)经验误差基本术语释义错误率分类错误的样本数占总样本数的比例精度精度=1-错误率训练误差在训练集上的误差泛化误差在新样本上的误差(二)过拟合过拟合:模型
训练样本
训练的太好,甚至将
训练样本
自身的一些特点当作了所有潜在样本都会具有的一般性质
chengyue98
·
2023-01-29 09:25
机器学习
机器学习
python
人工智能
Ng深度学习课程-第一课第三周笔记摘要
这个是当输入是单一的
训练样本
时的计算过程,编程实现时也只是这四行代码。接下来是针对多个
训练样本
。即是在原来单列的基础上,再向后增加一列,每增加一个
训练样本
,就在a的后面增加对应的一列。
bebr
·
2023-01-29 09:37
机器学习
深度学习
Ng
朴素贝叶斯分类器
参考朴素贝叶斯分类器-云+社区-腾讯云不难发现,基于贝叶斯公式来估计后验概率P(c|x)的主要困难在于:类条件概率P(x|c)是所有属性上的联合概率,难以从有限的
训练样本
直接估计得到。
Wanderer001
·
2023-01-28 15:00
机器学习理论
计算机视觉
深度学习
机器学习
深度学习 Deep LearningUFLDL 最新Tutorial 学习笔记 2:Logistic Regression
1LogisticRegression简述LinearRegression研究连续量的变化情况,而LogisticRegression则研究离散量的情况,简单地说就是对于判断一个
训练样本
是属于1还是0。
songrotek
·
2023-01-28 14:54
Deep
Learning
UFLDL
深度学习
machine
learning
deep
learning
python实现正则化_【机器学习】正则化——理论推导以及实现方式(Python版)
出现过拟合的常见情况主要有以下2个方面:特征参数过多,而
训练样本
过少数据中包含异常样本,没有进行数据清洗(数据集自身特征太过明显)正则化,是专门解决过拟合的优化算法。
weixin_39833290
·
2023-01-28 10:16
python实现正则化
SVM支持向量机的应用
其基本思想是:对于一个给定有限数量
训练样本
的学习任务,通过在原空间或经投影后的高维空间中构造最优分离超平面,将给定的两类
训练样本
分开,构造分离超平面的依据是两类样本对分离超平面的最小距离最大化。
chy3232
·
2023-01-28 10:02
学习
人工智能
支持向量机
机器学习
数据挖掘
Hugging Face 的 Transformers 库快速入门 (一)开箱即用的 pipelines
文章目录前言开箱即用的pipelines情感分析零
训练样本
分类文本生成遮盖词填充命名实体识别自动问答自动摘要这些pipeline背后做了什么?
liu_chengwei
·
2023-01-28 08:13
自然语言处理
pytorch
transformer
机器学习
上一页
9
10
11
12
13
14
15
16
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他