E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
训练样本
无监督学习之K均值算法
前言在之前的学习中,已经了解学习了一系列与监督学习有关的机器学习算法,本篇文章,将详细讲述与无监督学习相关的机器学习算法,所谓无监督学习就是根据类别未知(没有被标记)的
训练样本
解决模式识别中的各种问题,
此间不留白
·
2023-10-19 20:37
Stable Diffusion原理
不断往输入图片中添加高斯噪声来破坏图像反向过程:使用一系列马尔可夫链逐步将噪声还原为原始图片前向过程——>图片中添加噪声反向过程——>去除图片中的噪声1.2、训练过程:U-Net网络在每一轮的训练过程中,包含以下内容:每一个
训练样本
对应一个随机时刻向量
zzZ_CMing
·
2023-10-19 09:46
AIGC
stable
diffusion
AIGC
支持向量机及相关问题研究
给定一组
训练样本
,每个标记为属于两类,一个SVM训练算法建立了一个模型,分配新的实例为一类或其他类,使其成为非概率二元线性分类。
零物购
·
2023-10-19 09:57
数据结构
算法
基于机器学习的车牌识别系统(Python实现基于SVM支持向量机的车牌分类)
基于机器学习的车牌识别系统(Python实现基于SVM支持向量机的车牌分类)一、数据集说明
训练样本
来自于github上的EasyPR的c++版本,包含一万三千多张数字及大写字母的图片以及三千多张中文字符图片
creampang
·
2023-10-18 17:42
机器学习
机器学习
支持向量机
算法
每天五分钟机器学习:如何解决过拟合问题?
解决方案1.数据集扩充:增加更多的
训练样本
可以减少过拟合的风险。通过收集更多的数据来覆盖更多的情况,可以提高模型的泛化能力。2.特征选择:选择最相关的特征来训练模型,可以减少不相关的特征对模型的干扰。
幻风_huanfeng
·
2023-10-17 11:49
每天五分钟玩转机器学习算法
机器学习
人工智能
过拟合
特工工程
深度学习
吃瓜教程-模型的评估与选择
学习能力过强,以至于把
训练样本
所包含的不太一般的特性都学到了,称为:过拟合(overfitting)。学习能太差,
训练样本
的一般性质尚未学好,称为:欠拟合(unde
fof920
·
2023-10-17 04:42
机器学习
深度学习
人工智能
数据挖掘(5)分类数据挖掘:基于距离的分类方法
分类的基本流程步骤建立分类模型通过分类算法对训练集训练,得到有指导的学习、有监督的学习预定义的类:类标号属性确定使用模型进行分类测试数据集:评估模型的预测准确度流程图有指导的学习、无指导的学习有指导学习(分类):
训练样本
的类标号已知
烟雨平生9527
·
2023-10-16 09:54
数据挖掘
分类
人工智能
【动手学深度学习-Pytorch版】BERT预测系列——用于预测的BERT数据集
数据集转成BERT输入序列,具体的任务包括:读取wiki数据集生成下一句预测任务的数据—>主要用于_get_nsp_data_from_paragraph函数从输入paragraph生成用于下一句预测的
训练样本
い☞殘風☜、™
·
2023-10-15 07:45
深度学习
pytorch
bert
深度学习基本概念
5个:名称:mini-batch梯度下降batch_size=m/5划分为m个:名称:随机梯度下降batch_size=1一次对一个样例数据进行梯度下降epoch对整个训练集进行一次梯度下降:即所有的
训练样本
完成一次
Shilong Wang
·
2023-10-14 09:40
机器学习
计算机视觉
深度学习
人工智能
1024程序员节
epoch和episode
名称:mini-batch梯度下降batch_size=占1/5的量划分为m个:名称:随机梯度下降batch_size=1一次对一个数据进行梯度下降epoch对整个训练集进行了一次梯度下降,即:所有的
训练样本
完成一次
bijingrui
·
2023-10-14 09:26
人工智能
机器学习——神经网络(Neural Network)
主要的算法流程如下所示:(1)随机选取和;(2)选取一个
训练样本
(X,y),对于这个训练
qq_41562426
·
2023-10-13 14:19
机器学习
神经网络
人工智能
机器学习-深度学习常见的数据集
MNIST是一个手写数字数据库,它有60000个
训练样本
集和10000个测试样本集,每个样本图像的宽高为28*28。
无敌阿强
·
2023-10-12 21:59
深度学习
Study
机器学习数据集
优化问题 | 梯度下降的知识整理、Python实现及batch_size参数的总结
文章目录1综述2三种形式2.1批梯度下降法(BGD):整个训练集2.2随机梯度下降法(SGD):1个
训练样本
2.3小批量梯度下降法(MBGD,SGD):n个
训练样本
2.4梯度下降的python实现2.5
然然然然_
·
2023-10-12 17:14
优化问题
梯度下降
小批量梯度下降
梯度下降的Python实现
batch_size
层次聚类
明确分好类是
训练样本
集根据样本点的集合特征完成分类距离--样本之间相似程度连续型数值变量分类型变量二进制距离:-m1:1-1配对的数量-m0:0-0配对的数量-m2:不配对的数量dist函数dist(x
权氏小龙虾
·
2023-10-11 14:18
A Survey for In-context Learning
ASurveyforIn-contextLearning摘要:随着大语言模型(LLMs)能力的增长,上下文学习(ICL)已经成为一个NLP新的范式,因为LLMs仅基于几个
训练样本
让内容本身增强。
JL_Jessie
·
2023-10-11 01:48
深度学习
人工智能
机器学习
论文阅读
机器学习值KNN:K近邻算法(一:算法原理)
K近邻算法的直观解释就是给定一个已知样本分类的训练数据集,当有新样本输入时,在训练集中找到K个和新样本距离最近的的
训练样本
,这K个训练样
梅菜扣肉鱼丸粗面
·
2023-10-11 01:53
机器学习
机器学习
人工智能
算法
自然语言处理之数据平滑方法
但是,算法训练的时候,预料库中不可能包含所有可能出现的序列,因此为了防止对
训练样本
中为出现的新序列概率估计值为零,人们发明了不少可以改善估计新序列出现的概率算法,即数据的平滑。
Vincent-Yuan
·
2023-10-10 23:46
NLP
自然语言处理
数据分析实战---KNN手写数字识别
工作原理:1.计算待分类样本与
训练样本
的距离2.对距离升序排序,选取距离待分类样本最近的K个邻居3.
一只躺在风口的�
·
2023-10-10 05:46
数据分析实战
python
数据挖掘
算法
实验四 手写数字识别的神经网络算法设计与实现
二、实验器材PC机matlab软件三、实验内容按照BP神经网络设计方法选用两层BP网络,构造
训练样本
集,并构成训练所需的输入矢量和目标向量,通过画图工具,获得数字原始图像,截取图像像素为0的最大矩形区域
mu_to
·
2023-10-10 05:12
笔记
r语言
机器学习
sklearn
U-Net: Convolutional Networks for Biomedical Image Segmentation
一、论文翻译摘要:人们普遍认为,成功的深层网络训练需要数千个带注释的
训练样本
。在这篇文章中
等风来~~
·
2023-10-07 05:59
图像分割目标检测
多源蒸馏域适应
阶段3选择更接近目标的源
训练样本
用来微调C。阶段4对于每个源域,基于阶段2学到的目标编码器提取图像特征。
宇来风满楼
·
2023-10-06 20:49
域适应
人工智能
深度学习
计算机视觉
机器学习
Interference Signal Recognition Based on Multi-Modal Deep Learning
系统结构基于决策的融合实际上是用损失函数监督融合模型其中NNN是
训练样本
的数量体会作者未解释公式4的tit_iti的含义且不公布代码
宇来风满楼
·
2023-10-06 01:13
深度学习
人工智能
李沐《机器学习》42. 过拟合、欠拟合
如果训练误差很高,泛化误差很低,那么程序可能是有bug,或者也有可能是因为
训练样本
过难了;如果在训练的时候用了大量的数据增强或者在样本中加入了大量的噪音的话,训练误差确实会高一点。
菜园狸花喵
·
2023-10-05 18:18
李沐—机器学习
机器学习
深度学习
神经网络
PyTorch学习笔记(五):模型选择、欠拟合、过拟合和应对方法
欠拟合和过拟合训练误差和泛化误差模型选择验证数据集KKK折交叉验证欠拟合和过拟合模型复杂度训练数据集大小多项式函数拟合实验生成数据集定义、训练和测试模型三阶多项式函数拟合(正常)线性函数拟合(欠拟合)
训练样本
不足
FriendshipT
·
2023-10-05 18:16
PyTorch学习笔记
深度学习
人工智能
过拟合
机器学习面试之GBDT
p/7744987.html)(参考:https://blog.csdn.net/google19890102/article/details/51746402)一、集成学习方法(1)Bagging对
训练样本
重采样来
梦无音
·
2023-10-05 17:06
SVM和KNN
SVM:训练完直接得到超平面函数,根据超平面函数直接判定预测点的label,预测效率很高KNN:预测过程需要挨个计算每个
训练样本
和测试样本的距离,当训练集和测试集很大时,预测效率低。
究572
·
2023-10-05 16:03
支持向量机
机器学习
算法
随机梯度下降算法从零实现,基于Numpy
随机梯度下降法SGDGithub由于批量梯度下降法在更新每一个参数时,都需要所有的
训练样本
,所以训练过程会随着样本数量的加大而变得异常的缓慢。
Lornatang
·
2023-10-02 09:50
MNIST数据集介绍及读取
2019.2.23星期六多云biolearnMNIST数据集是机器学习领域中非常经典的一个数据集,由60000个
训练样本
和10000个测试样本组成,每个样本都是一张28*28像素的灰度手写数字图片。
biolearn
·
2023-10-01 23:55
单细胞聚类---浅析监督学习与无监督学习
监督学习,就是人们常说的分类,通过已有的
训练样本
(即已知数据以及其对应的输出)去训练得到一个最优模型(这个模型属于某个函数的集合,最优则表示在某个评价准则下是最佳的),再利用这个模型将所有的输入映射为相应的输出
云养江停
·
2023-09-29 08:53
深度学习中Dropout原理解析(10X单细胞和10X空间转录组)
1.Dropout简介1.1Dropout出现的原因在机器学习的模型中,如果模型的参数太多,而
训练样本
又太少,训练出来的模型很容易产生过拟合的现象。
单细胞空间交响乐
·
2023-09-29 03:07
通俗理解广义回归神经网络(GRNN)
通俗理解广义回归神经网络(GRNN)GRNN就是说,对于一个测试样本x,计算它与所有
训练样本
的相似度,计算相似度的方法使用高斯函数。
康康同学97
·
2023-09-28 19:20
python与深度学习
机器学习
神经网络
机器学习西瓜书+南瓜书吃瓜教程学习笔记第六章支持向量机
由简至繁的模型包括:当
训练样本
线性可分时,通过硬间隔最大化,学习一个线性可分支持向量机当
训练样本
近似线性可分时,通过软间隔最大化,
Unicorn婧
·
2023-09-28 00:17
机器学习
机器学习
学习
笔记
K近邻算法(KNN)原理小结
点击上方“小白学视觉”,选择加"星标"或“置顶”重磅干货,第一时间送达目录1.KNN算法原理2.KNN算法三要素3.KNN算法之暴力实现原理4.KNN算法之KD树实现原理5.KNN算法之
训练样本
不平衡情况
小白学视觉
·
2023-09-27 21:36
算法
python
机器学习
人工智能
深度学习
美团外卖特征平台的建设与实践
本文从特征框架演进、特征生产、特征获取计算以及
训练样本
生成四个方面介绍了美团外卖特征平台在建设与实践中的思考和优化思路。
zhisheng_blog
·
2023-09-27 16:48
算法
大数据
编程语言
hadoop
数据库
K-最近邻算法(KNN)
KNN算法的工作原理简单且直观,当需要将一个测试样本分类时,它首先会计算测试样本与所有
训练样本
之间的距离,然后根据距离的递增关系进行排序。接着,它会选择距离最小的前K个样本,并统计
·
2023-09-27 10:22
算法
李沐深度学习-08 线性回归
5.方括号[]内的实体x1表示一个向量,即一个
训练样本
。每一个
训练样本
由多个特征促成,见图1。6.真实yi减去预测值y_hat=+b。我
咚风白
·
2023-09-25 17:26
深度学习
线性回归
人工智能
有监督学习、无监督学习、半监督学习和强化学习的总结
1.有监督学习概念:将包含特征和标签信息的样本作为
训练样本
,通过
训练样本
训练得到一个最优模型,再利用这个模型将所有的输入映射为相应的输出,对输出进行简单的判断从而实现预测和分类的目的,也就具有了对未知数据进行预测和分类的能力
Zhi Zhao
·
2023-09-23 23:38
机器学习
机器学习
算法
感知器算法
输入数据:将
训练样本
的特征输入感知器。计算加权和:将输入特征与权重相乘,
猫一样的女子245
·
2023-09-23 22:06
算法
二、机器学习入门术语
一、线性回归算法简介m:
训练样本
的个数x:输入特征y:输出变量,也就是要预测的目标变量(x,y):表示一个
训练样本
():表示一个特定的
训练样本
,即第i个
训练样本
,上标i是第i个的意思h是hypothesis
并不傻的狍子
·
2023-09-23 13:50
#
机器学习算法
算法
机器学习
概率论
机器学习笔记08---k近邻学习
k近邻(k-NearestNeighbor,简称kNN)学习是一种常用的监督学习方法,其工作机制非常简单:给定测试样本,基于某种距离度量找出训练集中与其最靠近的k个
训练样本
,然后基于这k个“邻居”的信息来进行预测
一件迷途小书童
·
2023-09-23 13:29
Machine
Learning
机器学习
学习
人工智能
学习笔记(一)k-近邻算法(KNN)
原理KNN的工作原理是:存在一个样本数据集合,也称作
训练样本
集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分类的对应关系。输入没有标签的新数据后,
小小月牙
·
2023-09-23 13:59
学习笔记
机器学习
K-NN
近邻算法
机器学习笔记:概念对比——损失函数,代价函数,目标函数
损失函数LossFunction通常是针对单个
训练样本
而言给定一个模型输出和一个真实值y,损失函数是代价函数CostFunction通常是针对整个训练集(或者在使用mini-batchgradientdescent
UQI-LIUWJ
·
2023-09-23 04:24
笔记
人脸图像数据增强
它包括对原始图像进行一系列随机或有规律的变换,以生成新的
训练样本
。数据增强的主要目的是增加模型的泛化能力、提高模型的鲁棒性,并减轻过拟合的风险。
uncle_ll
·
2023-09-21 19:11
人脸
图像分类
人脸
计算机视觉
机器学习
数据增强
人脸识别
机器学习-模型评估与选择(第2章)课后习题
根据题目要求,需要抽取700个
训练样本
作为训练集,300个测试样本作为测试集,正例与反例的比例为1:1,即训
天寒心亦热
·
2023-09-21 09:12
机器学习
人工智能
机器学习
人工智能
神经网络训练防止过拟合和欠拟合的方法
过拟合的本质是模型对
训练样本
过度学习,反而失去泛化能力,当发现过拟合时,一般说明模型的拟合能力没问题,但是泛化能力需要提高。
知识推荐号
·
2023-09-20 16:53
深度学习
神经网络
深度学习
人工智能
监督学习---K近邻
一、K近邻算法原理 存在一个样本数据集合,也称作
训练样本
集,并且样本集中每个数据都存在标签,即我们知道样本集中每个数据与所属分类的对应关系。输入没有标
DB_UP
·
2023-09-20 14:20
算法模型
python
机器学习
算法
神经网络DNN的前向传播和后向传播
假设一共是L层的网络,每层的神经元的数目可以用n^[l]表示,l=0...L.
训练样本
的总数用m表示。前向传播在第l层的线性函数和激
千足下
·
2023-09-20 08:18
生成对抗网络(GAN)生成MNIST数据
GAN是一种基于博弈论的生成式网络,它是2014年有IanGoodfellow提出,主要解决的是如何从
训练样本
中学习出新的样本。
Forever__ _
·
2023-09-20 07:08
机器学习
python
计算机视觉
机器学习
深度学习
【数据挖掘】第4章 分类:基本概念与技术
基本概念与技术4.1分类的基本概念分类任务示例分类的定义:测试集、训练集、预测测试集建立分类模型的一般方法第一步:建立模型步骤一:将样本转化为等维的数据特征步骤二:选择与类别相关的特征步骤三:分别得到
训练样本
集和测试样本集第二步
小手の冰凉
·
2023-09-20 05:48
【数据科学与大数据技术】
数据挖掘
分类
人工智能
分类算法(KNN算法)
其中,k表示选取距离待分类对象最近的k个
训练样本
,将这些样本的类别作为待分类对象的类别进行判定。在分类问题中,KNN算法的基本步骤如下:1.计算训练集中每个样本和待分类对象之间的距离。
IKUN家族
·
2023-09-20 00:13
算法
分类
数据挖掘
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他