E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
reduction
机器学习小组知识点26:数据预处理之数据规约(Data
Reduction
)
数据归约策略数据仓库中往往具有海量的数据,在其上进行数据分析与挖掘需要很长的时间数据归约用于从源数据中得到数据集的归约表示,它小的很多,但可以产生相同的(几乎相同的)效果数据归约策略维归约数据压缩数值归约离散化和概念分层产生用于数据归约的时间不应超过或“抵消”在归约后的数据上挖掘节省的时间维归约通过删除不相干的额属性和维数减少数据量属性子集选择1找出最小的属性集,使得数据类的概率分布尽可能接近所有
Eric2016_Lv
·
2020-08-14 22:06
机器学习
数据挖掘
python sklearn-07:降维-PCA
链接:https://muxuezi.github.io/posts/7-dimensionality-
reduction
-with-pca.html官网链接:1.PCA:PCA(principalcomponentanalysis
vinking9393
·
2020-08-13 20:31
编程学习
大数据
数据分析
pytorch学习笔记三:torch.nn下常见的几个损失函数详解
在盘点常见损失函数之前,有必要先说一下在很多的损失函数中都出现的三个参数,也即size_average,reduce以及
reduction
,并且它们三个之间还存在一定的关系。
万能的小黑Alex
·
2020-08-13 17:05
PyTorch学习笔记
在Pytorch之中的nn.CrossEntropyLoss同时使用
reduction
与weights产生错误结果的相关问题
Pytorch中的交叉熵损失函数nn.CrossEntropyLoss之中包含两个非常有用的参数:weight:用来平衡样本之间的不平衡;
reduction
:用来指定损失结果返回的是mean、sum还是
夜流歌
·
2020-08-12 18:22
机器学习
Pytorch
深度学习
python
pytorch
神经网络
机器学习
TVM Compiler中文教程:TVM中Compute和
Reduction
如何使用元组输入
Compute和
Reduction
使用元组输入我们通常希望在单个循环内计算具有相同维度的多个输出,或者,执行涉及argmax等多个值的缩减。在这篇教程,我们将介绍在TVM中元组输入。
Mars_WH
·
2020-08-10 16:08
TVM深度学习编译器
机器学习入门(12)——降维(Dimensionality
Reduction
)
目标一:数据压缩(MotivationI_DataCompression)降维也是一种无监督学习问题。数据压缩不仅允许我们压缩数据,还因使用较少的计算机内存或磁盘空间,加快我们的学习算法。将数据从二维降至一维:假使我们要采用两种不同的仪器来测量一些东西的尺寸,其中一个仪器测量结果的单位是英寸,另一个仪器测量的结果是厘米,我们希望将测量的结果作为我们机器学习的特征。现在的问题的是,两种仪器对同一个东
StriveQueen
·
2020-08-08 21:39
Montgomery
reduction
——多精度模乘法运算算法
1.modularreduction模简化定义modularreduction模简化的定义为:若z为任意整数,则zmodm的结果在区间[0,m-1],相当于z除以m的余数,该运算过程称为z对模m的模简化。2.模运算有限域Zm内的加减乘除运算,其中的m为多精度正整数,m称为模。将正整数m,非负整数x,y(x=y,则0==m时,需额外增加一步-m的操作)和$14.9算法(当x>=y)。2.2乘法运算以
mutourend
·
2020-08-05 10:52
curve25519-dalek中的montgomery_reduce算法细节
1.montgomery_
reduction
标准算法及举例INPUT:integersm=
mutourend
·
2020-08-05 10:21
tensorflow中 tf.reduce_mean函数
reduce_mean(input_tensor,axis=None,keep_dims=False,name=None,
reduction
_indices=None)第一个参数input_tensor
LuLuZhang15
·
2020-08-05 02:01
python
Spectral(SPY)学习笔记(3)-高光谱降维(Dimensionality
Reduction
)
实现高光谱数据降维由于所谓的“维数诅咒”,处理数百个波段的高光谱图像可能会增加计算量,影响分类精度。为了缓解这些问题,通常需要降低数据的维数。主成分变换高光谱图像中的许多波段往往具有很强的相关性。主成分变换表示原始图像波段到一组新的、不相关的特征的线性变换。这些新特征对应于图像协方差矩阵的特征向量,其中相关特征值表示特征向量方向上的方差。在相对较少的主成分中(与原始频带数相比)可以捕获到非常大的图
luomuone
·
2020-08-04 16:57
python
图像处理
可视化MNIST之降维探索Visualizing MNIST: An Exploration of Dimensionality
Reduction
Atsomefundamentallevel,nooneunderstandsmachinelearning.Itisn’tamatterofthingsbeingtoocomplicated.Almosteverythingwedoisfundamentallyverysimple.Unfortunately,aninnatehumanhandicapinterfereswithusunders
weixin_34202952
·
2020-08-04 05:21
attention机制SENET、CBAM模块原理总结
参考博客:https://blog.csdn.net/weixin_33602281/article/details/85223216defcbam_module(inputs,
reduction
_ratio
lynn_0909
·
2020-08-04 01:27
记录一个pytorch训练过程中的奇怪错误(解决) psroialign
_nn.smooth_l1_loss(expanded_input,expanded_target,_
Reduction
.get_enum(
reduction
))RuntimeError:reducefailedtosynchronize
slamdunkofkd
·
2020-08-04 01:25
深度学习
调参
注意力机制CBAM代码实现(续篇)
defcbam_block(input_feature,index,
reduction
_ratio=8):withtf.variable_scope('cbam_%s'%index):attenti
dididada~
·
2020-08-03 23:31
深度学习
Clustering (番外篇): Dimensionality
Reduction
机器学习应用到各个领域里,会遇到许多不同类型的数据要处理:图像、文本、音频视频以及物理、生物、化学等实验还有其他工业、商业以及军事上得到的各种数据,如果要为每一种类型的数据都设计独立的算法,那显然是非常不现实的事,因此,机器学习算法通常会采用一些标准的数据格式,最常见的一种格式就是每一个数据对应欧几里德空间里的一个向量。如果原始的数据格式不兼容,那么就需要首先进行转换,这个过程通常叫做“特征提取”
mimihou
·
2020-08-03 20:41
聚类系列
关于OpenCV Gpu模块无法使用Cuda4.2以上版本编译成功的解决方案
需要修改部分如下:1:opencv\modules\gpu\src\matrix_
reduction
csx007700
·
2020-08-03 16:34
OpenCV
可视化MNIST之降维探索Visualizing MNIST: An Exploration of Dimensionality
Reduction
-2
GraphBasedVisualizationPerhaps,iflocalbehavioriswhatwewantourembeddingtopreserve,weshouldoptimizeforthatmoreexplicitly.ConsideranearestneighborgraphofMNIST.Forexample,consideragraph(V,E)(V,E)wherethen
GarfieldEr007
·
2020-08-03 10:55
Deep
Learning
tf.keras.losses.SparseCategoricalCrossentropy
交叉熵损失函数tf.keras.losses.SparseCategoricalCrossentropy(from_logits=False,
reduction
=losses_utils.ReductionV2
很吵请安青争
·
2020-08-02 23:09
TensorFlow
GAMS系列分享22-GAMS高级应用—场景缩减(Scenario
Reduction
)
考虑系统的不确定下,一般可能会用到随机优化,随机优化面临一个重要的概念就是场景缩减网上没有找到场景缩减的例子,这里我就推荐一点学习的资料吧。就是用这些资料,完成了场景缩减的编程,大家也可以尝试一下呦。目录1,官网文档资料2,官网编程实例3,带飞重要知识点1,官网文档资料help->doc->solvers->SCENRED就是这个文档,不多,20多页。放一下,一些比较重要的点,就是程序中重点关注的
qq_34194377
·
2020-08-01 14:19
gams场景缩减
GAMS
GAMS基础知识
reduce_sum()中的
reduction
_indices
参考知乎这篇答案https://www.zhihu.com/question/51325408/answer/125426642
reduction
_indices,直译过来就是指“坍塌维度”,即按照哪个维度进行加法运算
惊瑟
·
2020-08-01 14:15
机器学习随笔
TensorFlow的reduce_sum()函数
reduce_sum(input_tensor,axis=None,keep_dims=False,name=None,
reduction
_indices=None)1.input_tensor是要求和的
hengxingheng
·
2020-08-01 12:19
TF
reduction
_indices用法
reduction
_indices表示按照某个维度进行操作,经常用到2维以内的,三维以上的比较复杂暂不讨论array=np.array([[1,2,3],[4,5,6]])withtf.Session(
很吵请安青争
·
2020-08-01 12:45
TensorFlow
tf.reduce_sum函数中
reduction
_indices详解
TensorFlow的python使用方式:在tensorflow的使用中,经常会使用tf.reduce_mean,tf.reduce_sum等函数,函数中
reduction
_indices参数表示函数的处理维度
幸运六叶草
·
2020-08-01 10:11
tensorflow
tf.reduce_sum函数中
reduction
_indices参数的使用(附代码解释)
在用python使用TensorFlow的时候:tf.reduce_sum函数中
reduction
_indices参数表示函数的处理维度。
雷神在此
·
2020-08-01 09:43
python
pyspark-降维
https://github.com/apache/spark/tree/v2.2.03、http://spark.apache.org/docs/latest/mllib-dimensionality-
reduction
.htmlSVDExamplefrompyspark.mlli
风吴痕
·
2020-08-01 03:26
spark
arduino 步进电机控制程序示例
#include//定义电机控制用常量//电机内部输出轴旋转一周步数constintSTEPS_PER_ROTOR_REV=32;//减速比constintGEAR_
REDUCTION
=64;/**转子旋转一周需要走
真·skysys
·
2020-07-30 16:36
嵌入式开发
利用pytorch实现平均绝对值误差(MAE)
LOSSfunctionsL1LossCLASStorch.nn.L1Loss(size_average=None,reduce=None,
reduction
=‘mean’)创建一个标准来度量输入x和目标
深度瞎学
·
2020-07-28 22:47
深度学习
概率图模型基础(1)——简介
概率图模型基础之一:简介1.分布及其因子操作1.1联合分布1.2联合分布与条件分布(ConditionProbabilityDistribution,CPD)的一些计算1.2.1
Reduction
1.2.2Renormalization1.2.3Marginalization2
EntropyPlus
·
2020-07-28 14:33
概率图模型
4-CNN-demo-0602-SeNet_block.py
importtensorflowastf"""实现Senetblock模块"""defSe_block(inputs_tensor,name,
reduction
=8):""":paraminputs_tensor
HJZ11
·
2020-07-27 15:54
hive group by倾斜优化
combiner反而画蛇添足,hive里也考虑的比较周到通过参数hive.groupby.mapaggr.checkinterval=100000(默认)hive.map.aggr.hash.min.
reduction
lianchaozhao
·
2020-07-15 06:47
hive
基于Maximal Causality
Reduction
的并发程序验证
StatelessModelCheckingConcurrentProgramswithMaximalCausalityReduction#RemarksPublication:ACMSIGPLANNoticesJune2015FullPaper:https://dl.acm.org/doi/abs/10.1145/2813885.2737975Artifact:https://github.co
wcventure
·
2020-07-15 02:56
Datacamp 笔记&代码 Unsupervised Learning in Python 第三章 Decorrelating your data and dimension
reduction
更多原始数据文档和JupyterNotebookGithub:https://github.com/JinnyR/Datacamp_DataScienceTrack_PythonDatacamptrack:DataScientistwithPython-Course23(3)ExerciseCorrelateddatainnatureYouaregivenanarraygrainsgivingth
JinnyR
·
2020-07-13 15:11
datacamp
datacamp
sklearn
【机器学习实战】8_dimensionality_
reduction
代码《Hands-On Machine Learning with Scikit-Learn&TensorFlow》
降维(主成分分析和因子分析)#-*-coding:utf-8-*-"""CreatedonFriFeb116:21:142019@author:Administrator"""importmatplotlib.pyplotaspltimportosimportnumpyasnpPROJECT_ROOT_DIR='E:\wuxianpython\handson-ml-master\handson-m
wifi连不上
·
2020-07-12 15:55
python
Kaggle_Digit Recognizer_Dimensionality
Reduction
Kaggle-DigitRecognizer-DimensionalityReductiondate:2019-01-22参考网页动态图没法动态显示,动态显示效果可参考本人工程Introduction:PrincipalComponentAnalysis(PCA)--Unsupervised,linermethodLinearDiscriminantAnalysis(LDA)--Supervise
sunny0660
·
2020-07-12 00:40
深度学习
#
tutorial
tensorflow2.x学习笔记九:tensorflow(keras)损失函数之平均绝对值、均方误差
一、MeanAbsoluteError类tf.keras.losses.MeanAbsoluteError(
reduction
=losses_utils.ReductionV2.AUTO,name='mean_absolute_error
万能的小黑Alex
·
2020-07-11 19:54
Dimensionality
Reduction
(主成分分析PCA与线性判别分析LDA)
PCA原理:通常情况下,在收集数据集时会有很多的特征,这代表着数据是高冗余的表示,但是对于某个工程来说其实可能并不需要那么多的特征。所以就需要给数据进行降维(DimensionalityReduction)。降维可以简化数据,使数据集更易使用,降低时间开销,而且能减少一部分噪音的影响,使最后的效果变好。比如上图中,如果进行降维后再进行分类,将会易于处理。主成分分析(PrincipalCompone
上杉翔二
·
2020-07-11 19:10
机器学习
08_Dimensionality
Reduction
_03_Semi-supervised(kmeans+log_reg)_np.percentile_DBSCAN+knn_Spectral_GMM
08_DimensionalityReduction_svd_Kernel_pca_make_swiss_roll_subplot2grid_IncrementalPCA_memmap_LLEhttps://blog.csdn.net/Linli522362242/article/details/10513954708_DimensionalityReduction_02_Gaussianmixt
LIQING LIN
·
2020-07-10 22:22
cp5_Compressing Data via Dimensionality
Reduction
_feature extraction_PCA_LDA_convergence_kernel PCA
Incp4,BuildingGoodTrainingSets–DataPreprocessing,youlearnedaboutthedifferentapproachesforreducingthedimensionalityofadatasetusingdifferentfeatureselectiontechniques.Analternativeapproachtofeatureselec
LIQING LIN
·
2020-07-10 22:22
08_Dimensionality
Reduction
_svd_Kernel_pca_make_swiss_roll_subplot2grid_IncrementalPCA_memmap_LLE
CompressingDataviaDimensionalityReduction_featureextraction_PCA_LDA_convergence_kernelPCA:https://blog.csdn.net/Linli522362242/article/details/105196037
Reduction
_svd
LIQING LIN
·
2020-07-10 22:21
电路Circuit->Chapter2 Basic Laws and Circuit
Reduction
(基本定律和电路简化)
BasicLawsandcircuitreduction2.1EquivalentCircuitsTwo-terminalcircuit2.2Ohm'sLaw2.3Nodes,Branches,andLoopsNetworktopology2.4Kirchhoff'sLawsKCL:Kirchhoff’sCurrentLaw(basedonthelawofconservationofcharge)
oasis1500
·
2020-07-10 18:26
电路学习笔记
08_Dimensionality
Reduction
_02_Gaussian mixture_kmeans++_extent_tick_params_silhouette_image segment
cp5_CompressingDataviaDimensionalityReduction_featureextraction_PCA_LDA_convergence_kernelPCA:https://blog.csdn.net/Linli522362242/article/details/10519603708_DimensionalityReduction_svd_Kernel_pca_ma
LIQING LIN
·
2020-07-10 16:22
图像识别:常用的attention代码
blob/master/train_sppe/src/models/layers/SE_module.pyclassSELayer(nn.Module):def__init__(self,channel,
reduction
dgi_ace
·
2020-07-09 16:10
深度学习
一起来学OpenMP(5)——有效的数据规约
一、引言本节介绍
reduction
的用法。
Donhao
·
2020-07-09 15:56
多核编程
openmp 快速入门 常用技巧 parallel for sections
reduction
critical
OpenMP并行执行的程序要全部结束后才能执行后面的非并行部分的代码。这就是标准的并行模式fork/join式并行模式,共享存储式并行程序就是使用fork/join式并行的。标准并行模式执行代码的基本思想是,程序开始时只有一个主线程,程序中的串行部分都由主线程执行,并行的部分是通过派生其他线程来执行,但是如果并行部分没有结束时是不会执行串行部分的。摘要:#pragmaompparallel自动将下
billbliss
·
2020-07-09 13:44
OpenMP
C/C++编程
【OpenMP学习笔记】2:OpenMP中的归约和
reduction
子句
简述归约归约操作在MPI里也学过,不过那时候还不太熟悉这种操作。当时只知道MPI_Reduce可以把全局求和和集合通信封装起来,非常方便。实际上将相同的二元归约操作符重复地应用到一个序列上得到结果的计算过程都可以称为归约。python里那个难理解的reduce()函数也就是归约:>>>fromfunctoolsimportreduce>>>defmyfun(x,y):...returnx+y-1.
LauZyHou
·
2020-07-09 11:59
OpenMP
OpenMP
归约
tf.losses模块下的tf.
reduction
下面以常用的softmax_cross_entropy()函数为例,做一个详细介绍。tf.losses.softmax_cross_entropy(onehot_labels,#注意此处参数名就叫onehot_labelslogits,weights=1.0,label_smoothing=0,scope=None,loss_collection=tf.GraphKeys.LOSSES,reduc
xiaotian127
·
2020-07-09 01:16
小知识点
BERT中是怎么做到只计算[MASK]token的CrossEntropyLoss的?及torch.nn.CrossEntropyLoss()参数
nn.CrossEntropyLoss()的参数torch.nn.CrossEntropyLoss(weight=None,size_average=None,ignore_index=-100,reduce=None,
reduction
illusion_小驴
·
2020-07-08 19:21
pytorch
NLP
bert
常见的11种降维算法的源代码(python)
代码地址:https://github.com/heucoder/dimensionality_
reduction
_alo_codes降维算法资料链接展示PCAhttps://blog.csdn.net
yanta0
·
2020-07-06 10:59
机器学习
python
【深度学习】【Pytorch学习】Pytorch自带Loss总结
L1LossMSELossNLLLossCrossEntropyLossBCELossBCEWithLogitsLossSmoothL1LossLoss总结L1Lossmeanabsoluteerror默认
reduction
麒麒哈尔
·
2020-07-06 07:19
深度学习
10种常用降维算法源代码(python)
作者:超爱学习代码的github:https://github.com/heucoder/dimensionality_
reduction
_alo_codes(github上不止止有代码,还有相应的资料
weixin_38754361
·
2020-07-06 02:33
上一页
3
4
5
6
7
8
9
10
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他