E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
训练样本
改进YOLO系列:数据增强扩充(有增强图像和标注),包含copypaste、翻转、cutout等八种增强方式
(Noise)亮度调整(Brightness)平移(Shift)旋转(Rotation)裁剪(Crop)copy-paste的代码一、简介数据增强是一种通过对原始数据进行随机变换、扰动等操作来生成新的
训练样本
的技术
一休哥※
·
2023-04-09 20:04
YOLOv8
YOLO5系列改进专栏
YOLO
计算机视觉
深度学习
【一起啃书】《机器学习》第一章 绪论 + 第二章 模型评估与选择
2.基本术语:数据集、示例(样本)、属性(特征)、属性值、属性空间(样本空间、输入空间)、特征向量、学习(训练)、训练数据(训练集)、
训练样本
、学习器、标记空间(输出空间)、
小天才才
·
2023-04-09 13:39
一起啃书《机器学习》
机器学习
人工智能
深度学习
opecv入门:K近邻算法
从数据中学得模型的过程称为学习或者训练,在训练过程中使用的数据称为训练数据,每个样本称为
训练样本
,
训练样本
所组成的集合称为训练集。
AI路漫漫
·
2023-04-09 09:55
opencv从入门到放弃
opencv
Python机器学习:K-邻近算法
K邻近算法(KNN),是一种常用的分类或者是回归算法,给定一个
训练样本
集合D以及一个需要进行预测的样本x,KNN的思想很简单:对于分类问题,从所有
训练样本
集合中找到和x最接近的k个样本,然后通过投票法来选择这
鲁智深坐捻绣花针
·
2023-04-08 14:05
Python机器学习
机器学习
python
算法
【python机器学习实验】——逻辑回归与感知机进行线性分类,附可视化结果!
下载链接下载链接下载链接可视化效果图:感知机模型结果为例:首先,我们有训练数据和测试数据,其每一行为(x,y,label)的形式,label分为1或者-1,如下图所示,
训练样本
共1000个,测试样本100
瞲_大河弯弯
·
2023-04-08 10:20
深度学习应用
机器学习
python
逻辑回归
【论文精度(李沐老师)】Generative Adversarial Nets
Abstract我们提出了一个新的framework,通过一个对抗的过程来估计生成模型,其中会同时训练两个模型:生成模型G来获取整个数据的分布,辨别模型D来分辨数据是来自于
训练样本
还是生成模型G。
我是小蔡呀~~~
·
2023-04-07 21:32
人工智能
深度学习
机器学习实战-KNN
工作原理:存在一个样本数据集合,也称作
训练样本
集,样本集中每个数据都存在标签,即已知样本集中每一数据与其所属分类的对应关系。
Smiley栗子
·
2023-04-07 17:08
kaggle竞赛报告:APTOS 2019 Blindness Detection
1.3model3efficientnet-pytorch-ignite2基线模型的改进2.1数据存在严重的
训练样本
深度学习模型优化
·
2023-04-07 16:09
白给的神经过程Neural Processes笔记(二)
上文分析,高斯过程实际上就是分析输入变量的分布,并依据新的输入在
训练样本
输入分布中的位置(决定不确定性)来对
训练样本
的输出分配权重,最后线性组合(决定输出)输出预测值。
无始之始
·
2023-04-07 11:50
深度学习
模式识别
机器学习
神经网络
深度学习
人工智能
回归
SVM算法概论
支持向量机方法是建立在统计学习理论的VC维理论和结构风险最小原理基础上的,根据有限的样本信息在模型的复杂性(即对特定
训练样本
的学习精度,Accuracy)和学
风雪夜归子
·
2023-04-07 07:07
SVM
算法
支持向量机
通俗易懂理解SVM,支持向量机的统计学基础,推导公式,核函数的出现原因,松弛变量的出现原因
支持向量机方法是建立在统计学习理论的VC维理论和结构风险最小原理基础上的,根据有限的样本信息在模型的复杂性(即对特定
训练样本
的学习精度,Accuracy)
叫我小小飞
·
2023-04-07 07:04
svm
机器学习
自然语言处理
数据挖掘
算法
SVM-支持向量机算法概述
支持向量机方法是建立在统计学习理论的VC维理论和结构风险最小原理基础上的,根据有限的样本信息在模型的复杂性(即对特定
训练样本
的学习精度,Accuracy)和学
FishBear_move_on
·
2023-04-07 07:00
深度学习&数据挖掘
用 X 光检测新冠肺炎?也许孪生网络+迁移学习是更好的选择!
胸部X光影像是低成本的检测技术,但深度学习往往需要大量的
训练样本
,但目前公开可获得的样本不过数千。如何在样本不足的情况下使用深度学习进行检测呢?迁移学习是很不错的选择!但还可以更好吗?今天
我爱计算机视觉
·
2023-04-06 17:01
2020-06-14
我们首先使用MNIST数据集,该数据集包含6万个手写和标记数字
训练样本
和10,000个的测试样本,0到9,因此共有10个“分类”。
数据小黑升值记
·
2023-04-06 16:17
对数据集进行拉普拉斯平滑处理
在文本分类的问题中,当一个词语没有在
训练样本
中出现,该词语调概率为0,使用连乘计算文本出现概率时也为0。这是不合理的,不能因为一个事件没有观察到就
Seafairy
·
2023-04-06 13:18
物以类聚,人以群分:聚类分析
聚类分析是一种无监督学习方法,通过学习没有分类标记的
训练样本
发现数据的内在性质和规律;数据之间的相似性通常用距离度量,类内差异应尽可能小,类间差异应尽可能大;根据形成聚类方式的不同,聚类算法可以分为层次聚类
编程回忆录
·
2023-04-06 12:11
线性回归和梯度下降的基本的认识
我们使用小写字母m来表示
训练样本
的样本总数。我们使用小写字母x来表示输入变量,不过通常我们称之为特征。最后,我们使用小写字母y来表示输出变量或者叫做目标变量。
鹏鹏哥哥的小红帽
·
2023-04-06 05:32
机器学习
梯度下降
线性回归
[深度之眼机器学习训练营第四期]线性回归
二者组成的元组$(x^{(i)},y^{(i)})$就表示一个
训练样本
,而$n$个这样的
训练样本
就组成了训练集,即$\{(x^{(i)},y^{(i)});i=1,\cdots,n\}$。
Litt1e0range
·
2023-04-05 12:10
【机器学习-周志华】学习笔记-第十章
记录第一遍没看懂的记录觉得有用的其他章节:第一章第三章第五章第六章第七章第八章第九章第十章十一章十二章十三章十四章十五章十六章k近邻学习是给定测试样本,基于某种距离度量找出训练集中与其最靠近的k个
训练样本
vircorns
·
2023-04-05 00:08
#
机器学习
机器学习
学习
算法
《机器学习》理论——速读学习2 常用方法(2)
12-21学习目标:我需要了解神经网络除了工程化部分之外的更多内容,以便于在实际有效数据中可以获得抽象模型的能力;第6章支持向量机第7章贝叶斯分类器第8章集成学习第6章支持向量机6.1间隔与支持向量给定
训练样本
集
baby_hua
·
2023-04-04 21:15
深度学习
机器学习
支持向量机
人工智能
GBDT+LR算法解析及Python实现
点击率预估模型涉及的
训练样本
一般是上亿级别,样本量大,模型常采用速度较快的LR。但LR是线性模型,学习能力有限,此时特征工程尤其重要。现有的特征工程实验,主要集中在
代码输入中...
·
2023-04-04 14:18
深度学习
人工智能
python
开发语言
统计学习方法笔记之k近邻算法(附代码实现)
更多文章可以访问我的博客Aengus|Blogk近邻法即kNN算法,是假设给定一个训练集,对于每个
训练样本
的分类已经确认,当对测试样本分类时,根据其k个最近邻的
训练样本
的类别,通过多数表决的方式进行预测
Aengus_Sun
·
2023-04-04 10:03
yolo_v3训练自己的模型(人脸及deep-sort)(或自己数据集)
做deep-sort多目标跟踪需要结合yolo_v3进行检测行人由于我的项目中需要对人脸进行检测,所以需要训练针对人脸的模型
训练样本
是来自WIDER-FACE人脸库。
剑峰随心
·
2023-04-04 10:00
python
深度学习
机器学习
tensorflow
人脸识别
基于深度学习的图像分类识别-课程论文(共17页word文档-含python代码)
先后研究了
训练样本
数及卷积层数对识别准确率的影响。其中,当卷积层增加至4层时,识别准确率突破了80%,且呈现出一种明显的上升趋势。
简单光学
·
2023-04-04 01:18
四
科研经验分享
python
课程大作业
课程论文
毕业设计
机器学习笔记(一)
学习算法的任务:通过
训练样本
,选择或学习得到参数θ监督学习(SupervisedLearning)监督学习:通过已有
训练样本
进行训练,得到一个拟合效果最好的基本模型,再使用该模型,对新的
训练样本
计算出相应的输出结果
ZihouWong
·
2023-04-03 11:20
pytroch搭建自编码模型对MNIST数据进行降维和重构
由于自动编码器通常应用于无监督学习,所以不需要对
训练样本
进行标记。自动编码器在图像重构、聚类、降维、自然语言翻译等方面应用广泛目录一、自编码模型简介二、基于线性层的自编码模型2.1自编码网络数据
城南皮卡丘
·
2023-04-03 10:09
Pytorch深度学习
机器学习
python
人工智能
模型部署综述
整个流程包含从
训练样本
的获取(包括数据采集与标注),模型结构的…http
Kun Li
·
2023-04-03 01:01
算法部署
深度学习
人工智能
Pytorch中常用的四种优化器SGD、Momentum、RMSProp、Adam
随机梯度下降法(SGD)算法介绍 对比批量梯度下降法,假设从一批
训练样本
中随机选取一个样本。模型参数为,代价函数为,梯度
Shu灬下雨天
·
2023-04-02 19:17
[机器学习算法]聚类学习
简介在无监督学习中unsupervisedlearning中,
训练样本
的标记信息是未知的,其目标是通过对无标记
训练样本
的学习来揭示数据的内在性质及规律,为进一步的数据分析提供基础。
TOMOCAT
·
2023-04-02 17:53
【机器学习基础】XGBoost、LightGBM与CatBoost算法对比与调参
抛开深度学习适用的图像、文本、语音和视频等非结构化的数据应用,Boosting算法对于
训练样本
较少的结构化数据领域仍然是第一选择。本文先对前述章节的三大Boosting的联系与区别进行简单阐述,并一
风度78
·
2023-04-02 13:46
算法
决策树
python
机器学习
人工智能
支持向量机SVM概述
简介支持向量机方法是建立在统计学习理论的VC维理论和结构风险最小原理基础上的,根据有限的样本信息在模型的复杂性(即对特定
训练样本
的学习精度)和学习能力(即无错误地识别任意样本的能力)之间寻求最佳折中,以求获得最好的推广能力
吃肉的小馒头
·
2023-04-01 22:37
支持向量机
机器学习
算法
AI笔记: 线性回归模型优化求解
OLS的目标函数:J(w)=∑j=1N(yi−f(xi))2J(w)=\sum_{j=1}^N(y_i-f(x_i))^2J(w)=∑j=1N(yi−f(xi))2在最小二乘线性回归里,目标函数只包含了
训练样本
上的残差平方和岭回归的目标函数
山无棱,江水为竭
·
2023-04-01 21:30
AI
线性回归模型
优化求解
吴恩达深度学习笔记(13)-多样本梯度下降和向量化处理多批次数据
m个样本的梯度下降(GradientDescentonmExamples)在之前的笔记中,已经讲述了如何计算导数,以及应用梯度下降在逻辑回归的一个
训练样本
上。现在我们想要把它应用在m个
训练样本
上。
极客Array
·
2023-04-01 05:06
(三)人工神经网络的工作过程及其特点
对于前馈型神经网络,它从样本数据中取得
训练样本
及目标输出值,然后将
qq_36181546
·
2023-04-01 04:29
神经网络
2023年泰迪杯数据挖掘挑战赛B题--产品订单数据分析与需求预测(数据处理)
因此本题需要
训练样本
分析数据特征,通过有效的可视化数据分析来获取不同因素对于产品需求量的影响,从而方便实现后续预测
maligebilaowang
·
2023-04-01 04:53
数学建模竞赛
数据挖掘
数据分析
人工智能
2023年泰迪杯
订单需求预测
2018-04-18第三周 svm深入学习+使用线性核函数写出demo+优化1:k折交叉验证
首先是我这一周的svm学习笔记一、线性分类器在进行文本分类的时候,我们可以让计算机这样来看待我们提供给它的
训练样本
,每一个样本由一个向量(就是那些文本特征所组成的向量)和一个标记(标示出这个样本属于哪个类别
土豆土豆我是potato
·
2023-03-31 17:05
《神经网络与机器学习》笔记(七)
概率密度估计简称密度估计,是根据一组
训练样本
来估计样本空间的概率密度。密度估计可以分为参数密度估计和非参数密度估计。参数密度估计是假设数据服从某个已知概率密度函数形
糖醋排骨盐酥鸡
·
2023-03-31 07:58
《机器学习》周志华第十章
10.1K近邻学习【KNN】常用监督学习方法,基于实力学习模型,"懒惰学习"(存样不训,收测样再处理,与其相对的是"急切"学习)工作机制:给定测试样本,基于某种距离度量找出训练集中,与其距离最靠近的K个
训练样本
Keqis
·
2023-03-31 03:34
随机梯度下降算法
因为每次重复梯度下降都是所有数据全部求和,所以梯度下降算法又称之为批量梯度下降(BatchGradientDescent)概念说明随机梯度下降在每一次迭代中,不用考虑全部的样本,只需要考虑一个
训练样本
。
爱吃鱼的夏侯莲子
·
2023-03-30 15:47
[CS229]Notes One
符号意义x(i)输入变量,输入特征y(i)输出/目标,label,准备去预测的量(x(i),y(i))单个
训练样本
{(x(i),y(i));i=1,...,m}训练集,包
MorganChang
·
2023-03-30 10:44
深度学习中的有监督学习和无监督学习
有监督学习,就是人们常说的分类,通过已有的
训练样本
(即已知数据以及其对应的输出)去训练得到一个最优模型(这个模型属于某个函数的集合,最优则表示在某个评价准则下是最佳的),再利用这个模型将所有的输入映射为相应的输出
Mr-He
·
2023-03-29 15:51
深度学习
深度学习
学习
机器学习
Yolov5学习全过程:训练+运行+c#部署(无理论全实操)
Yolov5学习全过程:训练+运行+c#部署(无理论全实操)1.Yolov5理论介绍2.Yolov5下载地址3.Yolov5使用方法4.制作
训练样本
4.1labelImg下载4.2labelImg注意事项
weixin_49983900
·
2023-03-29 02:25
学习
c#
开发语言
python
深度学习
MATLAB中使用SVM
clear,clc%训练数据20x2,20行代表20个
训练样本
点,第一列代表横坐标,第二列纵坐标TrainData=[-30;40;4-2;3-3;-3-2;1-4;-3-4;01;-10;...22;
Sun_xiangyan
·
2023-03-29 01:37
Matlab
西瓜书第二章(01)
今天整理西瓜书2.1-2.4概念问题学习器在训练集上表现出来的误差叫做训练误差,而在测试集上表现出来的叫做“泛化误差”当学习器把
训练样本
学的太好了的时候,很可能已经把
训练样本
上的一些独特的特点当作了所有对象都会有的特性
超级皮卡丘囧rz
·
2023-03-27 22:30
Lesson12---人工神经网络(1)
FankRosenblatt由两层神经元组成,可以简化为右边这种,输入通常不参与计算,不计入神经网络的层数,因此感知机是一个单层神经网络感知机训练法则(PerceptronTrainingRule)使用感知机训练法则,能够根据
训练样本
的标签值和感知机输出之间的误差
Next***
·
2023-03-27 19:24
神经网络与深度学习
机器学习
算法
深度学习
【笔记】机器学习之模型的评估与选择
过拟合与欠拟合当机器把
训练样本
学得“太好”了的时候,很可能已经把
训练样本
自身的一些特点当做了所有潜在样本都会具有的一般性质,这样就会导致泛化性能下降,这就是“过拟合”,反之为“欠拟合”。过拟合和欠拟合
谢特诞生了
·
2023-03-26 19:54
【理解机器学习(一)】理解极大似然估计和EM算法(上)
算法的定义及理清它们间的关系写在最前面的结论:极大似然估计和EM算法都是对于概率模型而言的极大似然是对概率模型参数学习优化目标的一种定义EM算法是用于求解极大似然估计的一种迭代逼近的算法机器学习的一大重要任务:根据一些已观察到的证据(例如
训练样本
UnderStorm
·
2023-03-26 14:39
机器学习实战(k-近邻算法-入门篇)
k-近邻算法概述k-近邻算法就是采用测量不同的特征值之间的距离进行分类它的工作原理是:存在一个样本数据集合,也称作
训练样本
集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所分类类别的对应关系
Negen
·
2023-03-26 03:36
随机梯度下降
对于稀疏数据,本模块的分类器可以轻易的处理超过10^5的
训练样本
和超过10^5的特征。优势:1、高效(快就一个字,我只说一次)2、易于实现。劣势:对特征缩放
Powehi_
·
2023-03-25 22:22
机器学习基本概念
其中每个样本称为一个“
训练样本
”,
训练样本
组成的集合称为“训练集”,测试样本组成的集合称为“测试集”。模型在训练集上的误差通常称为“训练误差”或“经验误差”,在测试集上的误差通常称为“测试误差”。
milaier
·
2023-03-25 12:53
上一页
7
8
9
10
11
12
13
14
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他