E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
训练样本
《机器学习》笔记:聚类
基本概念无监督学习(unsupervisedlearning)是利用无标记
训练样本
的学习来揭示数据的内部性质以及规律。其中聚类(clustering)是其中重要的一类。
Zach要努力
·
2023-11-26 17:32
机器学习
机器学习
聚类
无监督学习
基于android平台的笔记簿,机器学习笔记簿 降维篇 LDA 01
而监督学习将使用数据和数据对应的标签,我们希望机器能够学习到数据和标签的关系,例如分类问题:机器从
训练样本
中学习到数据和类别标签之间的关系,使得在输入其它数据的时候,机器能够把这个数据分入正确的类别中。
王润莲
·
2023-11-25 14:07
基于android平台的笔记簿
集成学习-波士顿房价预测
关于集成学习算法集成算法基本算法主要分为Bagging算法与Boosting算法Bagging的算法过程从原始样本集中(有放回的)随机抽取n个
训练样本
,共进行k轮抽取,得到k个训练集(k个训练集之间相互独立
伪_装
·
2023-11-25 12:03
机器学习
集成学习
机器学习
算法
人工智能
参数估计-最大似然估计和贝叶斯参数估计
我们利用
训练样本
来估计先验概率和条件概率密度,并以此设计分类器。当假设数据符合某种分布时,其参数均是未知的,此时分类模型是包含未知参数的概率模型,因此要对其进行参数估计。
于建民
·
2023-11-24 18:03
技术博客
机器学习
统计学
参数估计
模式识别
机器学习笔记06---极大似然估计
估计类条件概率的一种常用策略是先假定其具有某种确定的概率分布形式,再基于
训练样本
对概率分布的参数进行估计。
一件迷途小书童
·
2023-11-24 18:58
Machine
Learning
机器学习
人工智能
算法
Week5
5周九、神经网络的学习(NeuralNetworks:Learning)9.1代价函数参考视频:9-1-CostFunction(7min).mkv首先引入一些便于稍后讨论的新标记方法:假设神经网络的
训练样本
有个
kidling_G
·
2023-11-24 04:17
K邻近算法的Python实践——用Python实现简单而强大的机器学习算法
它基于实例的学习方法,通过根据邻近的
训练样本
来预测新的数据点的标签。Python提供了丰富的机器学习库,其中包括Scikit-learn,使得实现K邻近算法变得简单而便捷。
非著名程序员阿强
·
2023-11-23 17:55
算法
python
机器学习
Dropout 作用
一、前言Dropout出现的原因训练深度神经网络的时候,总是会遇到两大问题:(1)容易过拟合(2)网络费时在机器学习的模型中,如果模型的参数太多,而
训练样本
又太少,训练出来的模型很容易产生过拟合的现象。
shadowismine
·
2023-11-23 14:12
机器学习
人工智能
Dropout层、BN层、Linear层 & 神经网络的基本组成
承接上三篇博客:卷积层(空洞卷积对比普通卷积)、激活函数层、池化层&感受野目录(1)Dropout层(2)BN层(BatchNormal)(3)全连接层(1)Dropout层在深度学习中,当参数过多而
训练样本
又比较少时
Flying Bulldog
·
2023-11-23 14:11
Pytorch_python
搭建神经网络
神经网络
深度学习
机器学习
pytorch
python
神经网络的“引擎”:基于梯度的优化
训练循环(trainingloop)1、抽取
训练样本
x和对应的目标y组成的数据批量;2、在x上运行网络[这一步叫前向传播(forwardpass)],得到预测值y_pred;3、计算网络在这批数据上的损失
庵下桃花仙
·
2023-11-23 12:42
人机环境系统智能与人工智能
大数据为人工智能提供了丰富的
训练样本
和资源,使得机器学习和深度学习等技术得以发展和应用。通过对大数据的学习,人工智能可以不断优化和改进自身的算法和模型,提高其在各个领域的应
人机与认知实验室
·
2023-11-23 04:33
人工智能
第2章 模型评估和选择
错误率E=n/m精度:1-n/m称为"精度",即"精度=1-错误率"误差:学习器的实际预测输出与样本的真实输出之间的差异训练误差/经验误差:学习器在训练集上的误差泛化误差:在新样本上的误差过拟合:学习器把
训练样本
学得
小陈同学eer
·
2023-11-23 02:32
深度学习之基础知识详解(文末有福利)
过拟合,欠拟合过拟合(overfitting):学习能力过强,以至于把
训练样本
所包含的不太一般的特性都学到了。欠拟合(underfitting):学习能太差,
训练样本
的一般性质尚未学好。
I小码哥
·
2023-11-23 01:01
adaboost 预测马病的几率,最大auc取法, 测试集准确率82.09%
1.以机器学习中的horseColicTraining为
训练样本
,horseColicTest为测试样本2.实践中当迭代次数较大的时候会过拟合,故以最大训练次数40次,在训练集错误率不上升的前提下,最大的
陈君豪
·
2023-11-22 15:59
ai
【机器学习】(六)支持向量机
在样本空间中找到一个划分超平面,将不同类别的样本分开划分超平面可以表示成如下的线性方程:image其中w为法向量,b为位移项,空间内任意一点到以上超平面的距离为:image则有image距离超平面最近的几个
训练样本
点使得上式的等号成立
超级超级小天才
·
2023-11-22 11:04
常见机器学习算法简述
kNN(k近邻):给定测试样本,基于某种距离度量找出训练集中与其最靠近的k个
训练样本
。在分类中,通过投票法选择这k个样本中出现最多的类别作为预测结果。
zerowl
·
2023-11-20 17:08
【机器学习12】集成学习
为了让基分类器之间互相独立,将训练集分为若干子集(当
训练样本
懒羊羊-申博版
·
2023-11-19 15:12
《百面机器学习》
机器学习
集成学习
人工智能
国科大数据挖掘期末复习——聚类分析
聚类属于无监督学习(unsupervisedlearning),也就意味着它不依赖于预先定义的类和
训练样本
。所以聚类是通过观察学习,而不是通过例子学习。
终成大师
·
2023-11-19 14:56
数据挖掘
数据挖掘
中科院
吴恩达《机器学习》9-1:代价函数
考虑神经网络的
训练样本
,其中每个样本包含输入x和输出信号y。我们用L表示神经网络的层数,表示每层的神经元个数(表示输出层神经元个数)。对于分类问题,将神经网络的分类定义为两种情况:二类分类和多类分类。
不吃花椒的兔酱
·
2023-11-19 10:07
机器学习
机器学习
学习
笔记
Datawhale AI夏令营第三期 - 脑PET图像分析和疾病预测挑战赛——Baseline修改及优化
Baseline优化的常见方法1.图像增强由于本次任务提供的训练集较少,正负样本各25个,共计50个
训练样本
,因此需对图像进行增强。以下是进行图像增强的方法首先安装并引
cs6182890
·
2023-11-17 03:41
人工智能
深度学习
神经网络
python
sklearn学习笔记(二)——最近邻分类
最近邻的思想是测试样本距离
训练样本
的距离。最近邻是非归纳型方法,是基于实例的方法。它只是记住了
训练样本
,并按高级索引结构进行转换,比如BallTree或者KDTree。
ahora_wzy
·
2023-11-16 12:49
sklearn
scikit-learn
sklearn
2020最佳检测 | 带有注意力RPN和多关系检测器的小样本目标检测网络(提供源码和数据及下载)...
我们的方法的核心是注意力RPN和多关系模块,充分利用少量
训练样本
和测试集之间的相似度来检测新对象,
计算机视觉研究院
·
2023-11-15 18:50
编程语言
计算机视觉
机器学习
人工智能
深度学习
小样本学习在图像识别中的挑战与突破
过拟合:由于样本少,模型容易过拟合,即在
训练样本
上表现良好,但在未见过的数据上表现不佳。领域差异:在小样本学习中,模型需要
matlabgoodboy
·
2023-11-15 12:38
学习
YOLOV8训练自己的数据(
训练样本
整理)
YOLOV8训练自己的数据(
训练样本
整理/训练和预测)YOLOV8训练自己的数据语义分割篇yolov8都出来了,你还在用老模型?确定不一起来看看?
AI笔记
·
2023-11-14 12:07
python
图像算法
yolov8
YOLO
python
开发语言
【PIE-Engine Studio学习笔记09】图像分类—监督分类之样本绘制
目录前言操作步骤导入研究区域和影像样本点绘制SVM分类结束语前言之前跟大家介绍过,通过其他软件绘制样本,然后导入到PIE-Enginestudio平台上作为监督分类的
训练样本
,这次跟大家分享,直接在平台上进行样本的绘制
GeoLearning
·
2023-11-14 04:01
PIE-Engine
Studio
云计算
JavaScript
分类
javascript
云计算
深度学习中Epoch、Batch和Batch size的定义和设置
在一个Epoch中,所有的
训练样本
都会被用于前向传播和逆向传播,以更新神经网络的权重一个Epoch通常包括多个Batch(批次)的迭代。Epoch的数量通常是训
o涂鸦小巷的菇凉o
·
2023-11-12 15:55
深度学习
batch
人工智能
吴恩达机器学习----神经网络:学习
(共18章,其中第3章“线性代数回顾”与第5章“Octava教程”的笔记就不总结了)第九章神经网络:学习(NeuralNetwork:Learning)1、代价函数假设神经网络的
训练样本
有m个
huapusi
·
2023-11-12 13:24
吴恩达机器学习笔记
机器学习
吴恩达
神经网络
GBDT减少模型偏差、随机森林减小模型方差
假设有N个
训练样本
数据,则每一个
训练样本
最开始时,都被赋予相同的权值:w
cuisidong1997
·
2023-11-12 13:59
随机森林
算法
机器学习
【大数据----数据挖掘】数据挖掘之聚类、分类、回归
例如向模型输入人的各种数据的
训练样本
,产生“输入一个人的数据,判断是否患有癌症”的结果,结果必定是离散的,只有“是”或“否”。分类方法是一种对离散型随机变量建模或预测的监督学习算法。
Sunny3096
·
2023-11-11 22:55
大数据-数据挖掘
【机器学习】七、降维与度量学习
维数灾难具体表现在:在高维情形下,数据样本将变得十分稀疏,因为此时要满足
训练样本
为“密采样”的总体样本数目是一个触不可及的天文数字,
训练样本
的稀疏使得其代表总体分布的能力大大减弱,从而消减了学习器的泛化能力
TwcatL_tree
·
2023-11-10 23:54
深度学习
人工智能
机器学习
机器学习
学习
人工智能
[转载]什么是机器学习正则化?L1正则化?L2正则化?
即模型在
训练样本
数据上表现的很好,但在实际测试样本上表现的较差,不具备良好的泛化能力。为了避免过拟合,最常用的一种方法是使用使用正则化,例如L1和L2正则化。但是,正则化项是如何得来的?
江南蜡笔小新
·
2023-11-10 14:46
Note
机器学习
深度学习
人工智能
正则
正则化
svm python opencv 分类_OpenCV-Python理解SVM|五十五
在kNN中,对于测试数据,我们用来测量其与所有
训练样本
的距离,并以最小的距离作为样本。测量所有距离都需要花费大量时间,并且需要大量内存来存储所有
训练样本
。
卿本佳人我本尘埃
·
2023-11-08 12:47
svm
python
opencv
分类
机器学习(八)经验风险与结构风险
关于训练数据集的平均损失称之为经验风险(empricalrisk)或经验损失(empiricalloss),记作R(emp)期望风险R(emp)是模型关于联合分布的期望损失,经验风险R(emp)是模型关于
训练样本
集的平均损失
大模型Maynor
·
2023-11-08 07:28
#
机器学习
机器学习
人工智能
[网络层]什么是 Dropout
2、为什么要引入Dropout因为当模型比较复杂,而
训练样本
却较少的时候,容易发生过拟合。而Dropout则是通过每次随机地让一批神经元停止工
LCG22
·
2023-11-06 07:05
《机器学习》第6章 支持向量机
核函数支持向量展式核函数6.4软间隔与正则化6.5支持向量回归(SVR)6.6核方法6.1间隔与支持向量分类学习最基本的想法就是基于训练集D在样本空间中找到一个划分超平面,将不同类别的样本分开.但能将
训练样本
分开的划分超平面可能有很多
太极生两鱼
·
2023-11-06 06:05
机器学习
机器学习
支持向量机
人工智能
2019-01-29 随机梯度下降(stochastic gradient descent)
梯度下降法的问题是当m值很大时,计算这个微分项的计算量就变得很大,因为需要对所有m个
训练样本
求和,这被称为批量梯度下降(batchgradientdescent)。
奈何qiao
·
2023-11-05 19:07
模型评估与选择
现状很多情况下,可以学的一个经验误差很小、在训练集上表现很好的学习器;甚至对
训练样本
的分类可以达到100%的准确。挑战这样的学习器在多数情况下并不好。
曾悦_3b69
·
2023-11-05 19:38
能源化工过程-故障诊断数据集初探-田纳西-伊斯曼过程数据集
d00.dat
训练样本
是在25h运行仿真下获得的。观测数据总数为500。而d00_te
cnjs1994
·
2023-11-05 18:17
计算机视觉
-
Opencv
强化学习等的
趣味小实验
风机关键部件以及轴承故障诊断
能源
【新人赛】阿里云恶意程序检测 -- 实践记录11.10 - XGBoost学习 / 代码阅读、调参经验总结...
然后再对
训练样本
的分布做一些调整,
Yanqiang_CS
·
2023-11-05 06:11
机器学习
深度学习
人工智能
python
java
[code] 利用多进程加快视频/图片做样本
我们的
训练样本
都需要自己来制作,目前的样本在多段视频的固定位置可以截取。我采用了多进程同时跑多个视频然后截图保存为了区分是哪一个视频的截图,在命名上做了小区分。
壹刀_文
·
2023-11-04 19:18
数据分析--机器学习
无监督学习指根据类别未知(没有被标记)的
训练样本
解决模式识别中的各种问题的过程。监督学习适用于样本数据类别已知的情况。非监督学习适用于无类别信息的情况。
不上晚自习
·
2023-11-04 03:22
机器学习
数据分析
聚类
拟合与过拟合
拟合跟过拟合过拟合:将泛化误差分解为偏差跟方差偏差:学习者不断学习相同错误事物的倾向方差:学习随机信号而不考虑真实情况的趋势过拟合:所建的机器学习模型或者深度学习模型在
训练样本
中表现得过于优越,导致测试数据集表现不佳的现象原因
山丘之王岳岳
·
2023-11-04 02:58
无线通信
笔记
MNIST数据集下载 —— 数据集提供百度网盘下载地址
MNIST数据集是机器学习领域中非常经典的一个数据集,由60000个
训练样本
和10000个测试样本组成,每个样本都是一张28*28像素的灰度手写数字图片。
码猿小菜鸡
·
2023-11-04 01:57
单纯分享
深度学习
人工智能
机器学习
tensorflow
MNIST数据集
深度学习系列-数据集介绍
MNIST是一个手写数字数据库,它有60000个
训练样本
集和10000个测试样本集,每个样本图像的宽高为28*28。
飞天小小猫
·
2023-11-03 17:05
吴恩达深度学习--logistic回归中的梯度下降法
a^i是
训练样本
的预测值以上是对于单个例子的逻辑回归。我们可以初始化J=0,dw1dw2db都为0回顾我们正在做的细节,dw1、dw2、db作为累加器
862180935588
·
2023-11-03 04:14
L1和L2正则化通俗理解
即模型在
训练样本
数据上表现的很好,但在实际测试样本上表现的较差,不具备良好的泛化能力。为了避免过拟合,最常用的一种方法是使用使用正则化,例如L1和L2正则化。
shadowismine
·
2023-11-02 23:06
深度学习技巧
人工智能
1985-2020年我国30m土地利用覆盖数据介绍
然而,目前,由于缺乏足够的
训练样本
和计算能力,由观测图像产生的高分辨率年度LC数据集在中国普遍不可用。为了解决这个问题,在GoogleEarthEngine(GEE)平台上制作了第一个基于Landsa
地理探险家
·
2023-11-01 23:29
遥感与深度学习
人工智能
遥感
地表覆盖
土地利用
数据集
历史
CTC原理介绍
CTC出现的背景 在序列学习任务中,RNN对
训练样本
一般有这样的依赖
minjialong
·
2023-11-01 19:49
算法原理
深度学习
OCR
CTC原理
CTC推导
机器学习-基本知识
任务类型◼有监督学习(SupervisedLearning)每个
训练样本
x有人为标注的目标t,学习的目标是发现x到t的映射,如分类、回归。
愚公移山山不愚
·
2023-10-31 16:20
Python基础
机器学习
人工智能
MAE-DFER: Efficient Masked Autoencoder for Self-supervised Dynamic Facial Expression Recognition
本文的动机现有的DFER数据集(通常在10K左右,如下表一所示,这比一般的图像/视频分类和人脸识别等研究领域要小得多,有限的
训练样本
严重限制了它们的进一步发展VideoMAE中使用的vanillaViT
卡拉比丘流形
·
2023-10-30 08:34
论文阅读
深度学习
人工智能
论文阅读
神经网络
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他