E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
regularized
【GAN ZOO阅读】模式正则化的生成对抗网络 MODE
REGULARIZED
GENERATIVE ADVERSARIAL NETWORKS
原文地址:https://arxiv.org/abs/1612.02136引用之请注明出处。TongChe1,YanranLi23,AthulPaulJacob1,YoshuaBengio1,WenjieLi21蒙特利尔学习算法研究所,蒙特利尔大学,蒙特利尔,QCH3T1J4,加拿大2香港理工大学计算机系,香港3滑铁卢大学计算机学院,滑铁卢,ONN2L3G1,加拿大摘要尽管生成对抗网络在各种生成任
hyczkg
·
2023-12-19 19:22
GAN
ZOO
【论文笔记】PR-GNN:Pooling
Regularized
Graph Neural Network for fMRI Biomarker Analysis
PR-GNN原文链接:https://arxiv.org/pdf/2007.14589.pdf作者提出PR-GNN,一种端到端的能够解释fMRI的ROI的图神经网络。通过将fMRI生成的图输入PR-GNN,产生输出预测和解释的结果。由于PR-GNN模型具有可解释性,在分类性能上比其他方法更优越,同时还能检测出显著的大脑区域用于执行分类。新提出的loss函数能够使用相同的方法进行individual
The_best_man
·
2023-12-02 01:22
#
GNN
#
深度学习
#
医学数据处理
图神经网络
医学影像
Regularized
Logistic Regression(吴恩达机器学习:正则化逻辑回归)
文章目录RegularizedLogisticRegression题目:微晶体质检处理Trainingset数据可视化Feature_mappingsigmod函数损失函数求解梯度下降算法可视化预测RegularizedLogisticRegression题目:微晶体质检(吴恩达机器学习课后题链接放在最后)输入:两次测试的结果输出:微晶体质检结果(通过/驳回)Trainingset第一列为第一次测
Algorithm-
·
2023-11-19 16:55
算法
机器学习
人工智能
逻辑回归
见微知著,你真的搞懂Google的Wide&Deep模型了吗?
论文原文的描述是这样的:Intheexperiments,weusedFollow-the-
regularized
-leader(FTRL
王喆的机器学习笔记
·
2023-11-01 06:54
计算机视觉开源代码汇总
Regularizationofpolynomialnetworksforimagerecognition论文地址:https://arxiv.org/pdf/2303.13896.pdf开源代码:https://github.com/grigorisg9gr/
regularized
_polynomials2
不忘初心t
·
2023-10-18 06:34
计算机视觉
深度学习
人工智能
模拟喷泉码(入门四):
Regularized
Variable-Node LT Codes with Improved Erasure Floor Performance
2013《RegularizedVariable-NodeLTCodeswithImprovedErasureFloorPerformance》学习笔记基于外部信息传递图(extrinsicinformationtransfercharts,EXITcharts)优化CNs度分布,设计具有良好的CN度分布的二进制擦除信道(BEC)上的LT码修改LT码编码过程以最大化最小VNs度,降低解码器误差下限
不讲魔法讲道理
·
2023-09-05 15:07
信号处理
算法
Wide&Deep中为什么带L1正则化项的FTRL作为wide部分的优化器,AdaGrad作为deep部分的优化器
论文原文的描述是这样的:Intheexperiments,weusedFollow-the-
regularized
-leader(FTRL)algorithmwithL1regularizationastheoptimizerforthewide
taoqick
·
2023-08-27 11:38
深度学习
机器学习
人工智能
论文笔记-精读-8.22-Manifold
Regularized
Dynamic Network Pruning
目录总结要解决的问题&解决的情况问题方法的优缺点优点缺点实验结果如何有哪些可以提升正文概要先验知识流型动态剪枝-Maniprune复杂性相似性总结关于本篇文所解决问题的总结写在前面,方便一些朋友阅读,也方便自己从具体的方法中跳脱出来,高屋建瓴、理清思路。要解决的问题&解决的情况问题主要是:staticprune达不到高的剪枝率,文章这是因为他们没有充分发掘输入中的信息;方法的优缺点直觉上,这个基于
ywsdxxzj
·
2023-08-24 20:16
神经网络
论文阅读
剪枝
深度学习
剪枝
论文阅读---《Graph
Regularized
Autoencoder and itsApplication in Unsupervised Anomaly Detection》
题目图正则化自编码器及其在无监督异常检测中的应用摘要降维对于许多无监督学习任务,包括异常检测和聚类,是一个至关重要的第一步。自编码器是一种常用的机制,用于实现降维。为了使高维数据嵌入到非线性低维流形的降维变得有效,人们认识到应该使用某种测量测地线距离的方法来区分数据样本。受到ISOMAP等测地线距离近似算法的成功启发,我们提出使用最小生成树(MST)——一种基于图的算法,来近似局部邻域结构,并生成
末世灯光
·
2023-08-08 13:03
论文阅读
论文阅读
Sparse Principal Component Analysis via
Regularized
Low Rank Matrix Approximation(Adjusted Variance)
在这里插入图片描述前言这篇文章用的也是交替算法,不得不说,这个东西太好用了,变来变去怎么都能玩出花来。这篇论文的关键之处,我感觉是对adjustedvariance的算法,比较让人信服。文章概述在这里插入图片描述在这里插入图片描述考虑下面的一个最优分解(F-范数)。在这里插入图片描述本文采取的也是一种搜索算法,每次计算一个载荷向量,所以,每次都处理的是rank-1的分解。也就是:在这里插入图片描述
馒头and花卷
·
2023-08-06 16:57
Molecular Generative Model Based on an Adversarially
Regularized
Autoencoder
SeungHwanHong,SeongokRyu,JaechangLim,WooYounKimJournalofChemicalInformationandModeling2019if=4.72简介基于VAE的模型常常产生无效的分子,原因是VAE使用一个预定义的先验(代理分布)近似后验分布,因此他们可以很容易地估计潜在变量的分布,但真实的后验分布可能不能很好地用一个给定的先验来近似,比如多元高斯分
酌泠
·
2023-07-30 12:25
Rdrop技术(
Regularized
Dropout)
目录Rdrop理论几个常见的应用具体操作方法个人思考Rdrop理论每个数据样本重复经过带有Dropout的同一个模型,再使用KL散度约束两次的输出,使得尽可能一致,而由于Dropout的随机性,可以近似把输入X走过两次的路径网络当作两个略有不同的模型,如下图所示:【补充知识点一】--损失函数一部分的损失函数是常规的交叉熵训练数据为(xi,yi)({x_i,y_i})(xi,yi),模型为Pθ(y∣
jianafeng
·
2023-06-10 12:29
实验记录
python
算法
hist seg, find peaks, pava单调拟合,isotonic-regression,
REGULARIZED
DISCRETE OPTIMAL TRANSPORT
文章目录1.相关内容1.1histseg:1.2pava(parallelPoolAdjacentViolators)1.3TPS(thinplatesplines)2.基于optimaltranspoet的colortransfer1.相关文章2.REGULARIZEDDISCRETEOPTIMALTRANSPORT论文损失3.REGULARIZEDDISCRETEOPTIMALTRANSPOR
tony365
·
2023-04-17 21:25
map
图像处理算法
map
对比学习 RDrop:
Regularized
Dropout for Neural Networks
关注微|信|公|众|号包包算法笔记背景今天给大家讲一点轻松又有用的:5行代码实现的对比学习,效果超好!其实我特别喜欢这类方法,足够简单明了,背后的思想也足够深刻,效果立竿见影。嗯,听起来都像彩虹屁。对比学习,最近比较火的一个方向,属于自监督的一种,其基本的思想是,不引入额外的标注数据,利用数据本身,在学习中的一些其他角度的监督信号,进行神经网络学习。对比学习,侧重对比两字,即数据的利用是利用样本间
ad110fe9ec46
·
2023-03-30 18:52
R-Drop:
Regularized
Dropout for Neural Networks 论文笔记(介绍,模型结构介绍、代码、拓展KL散度等知识)
目录前言一、摘要二、R-Drop介绍三、R-Drop公式详解四、R-Drop计算流程附录0:代码附录一:熵以及信息熵附录二:KL散度(相对熵)附录三:JS散度附录四:互信息总结前言R-Drop——神经网络的正则化DropOut一、摘要摘要:Dropout是一种强大且广泛应用的深度神经网络的调整训练的技术。尽管效果很好,但由于Dropout所带来的随机性导致了训练和实际之间的不一致性。在本文中,我们
ㄣ知冷煖★
·
2023-03-09 13:10
论文
深度学习
r语言
论文阅读
深度学习
【论文解读--PR-MPC控制】(2018)Policy
regularized
model predictive control framework for robust legged
系列文章目录提示:这里可以添加系列文章的所有文章的目录,目录需要自己手动添加TODO:写完再整理文章目录系列文章目录前言一、简介1.机器人的应用场景2.足式机器人触地检测是一个难点3.足式机器人(步态调度+支撑相力控)是一个难点4.模型简化方法5.预测控制6.本文贡献二、理论与系统建模1.运动学模型分析(1)运动学解耦结构图:2.动力学模型分析(1)动力学简化的方法(2)动力学解耦图(3)单刚体动
盒子君~
·
2023-01-21 08:44
#
四足机器人MIT
Cheetah
mini
论文解读与翻译
自动驾驶
机器学习
深度学习
阅读笔记之:Co-
regularized
multi-view spectral clustering-NIPS2011
想法:利用多个视角的信息进行聚类,提高聚类的准确性。很简单直接的原则;不同视角的数据具有潜在(underlying)一致的聚类。以这个为动机,在单视角谱聚类的基础上,增加多视角之间的约束。文章叫做共正则化(co-regularization),我理解的意思是,把多视角之间的约束当做每一个视角的正则化约束。文中还说共正则是在半监督中常见的技术,我觉得这种多视角的数据之间的对应关系也是一种监督信息。A
huayantina
·
2023-01-18 17:35
多模态数据聚类
正则
clustering
多视数据
谱聚类
从 Spectral Clustring 推导到
Regularized
Diffusion Process
SpectralClustring参考:bilibili机器学习-白板推导系列(二十二)-谱聚类(SpectralClustering)Background首先看一种数据分布:对于以上分布的数据,可以直接利用K−meansK-meansK−means或者GMM(高斯混合模型)GMM(高斯混合模型)GMM(高斯混合模型)去进行聚类。但是,对于以下数据分布:K−meansK-meansK−means或
T.Y.Bao
·
2023-01-18 17:31
聚类
算法
吴恩达 神经网络-数字识别 正向传播和反向传播整合 python实现
主函数不懂的同学可以直接cv尝试理解哦importtimefromFour_Week.Regularizedimportregularized_cost,
regularized
_gradientfromFour_Week.Toolimportrandom_init
vince1998
·
2023-01-16 10:01
python
神经网络
机器学习
Machine Learning -
Regularized
Logistic Regression
Thisseriesofarticlesarethestudynotesof"MachineLearning",byProf.AndrewNg.,StanfordUniversity.Thisarticleisthenotesofweek3,SolvingtheProblemofOverfitting,PartIII.Thisarticlecontainssometopicabouthowtoim
iracer
·
2023-01-14 11:05
Mooc
Machine
Learning
Bin博的机器视觉工作间
机器学习
Logistic
Regression
Machine
Learning
algorithm
regularizaiton
迁移学习论文解读:《Unsupervised Domain Adaptation via Structurally
Regularized
Deep Clustering》
存在问题:直接实现源域和目标域对齐会破坏目标数据的内在结构。但是如果先对目标域数据进行聚类,则可以保留完整的目标数据结构。
学好迁移Learning
·
2023-01-12 18:04
迁移学习文章解读
机器学习
深度学习
pytorch
迁移学习
python
图神经网络EEG论文阅读和分析:《EEG-Based Emotion Recognition Using
Regularized
Graph Neural Networks》
摘要:脑电图(EEG)通过电极测量大脑不同区域的神经元活动。现有的许多基于EEG的情绪识别研究并没有充分利用EEG通道的拓扑结构。在本文中,提出了一种正则化图神经网络(RGNN)用于基于脑电图的情绪识别。RGNN考虑了不同脑区域之间的生物拓扑结构,以捕捉不同脑电信号通道之间的局部和全局关系。具体来说,通过图神经网络中的邻接矩阵来建模脑电图信号的通道间关系,其中邻接矩阵的连接和稀疏性受到人类大脑组织
KPer_Yang
·
2023-01-11 12:37
信号处理算法
论文阅读
EEG
图神经网络
Manifold
regularized
discriminative feature selection for multi-label learning(基于流式正则化判别多标记学习的特征选择)
论文大纲:背景特征选择的方法详细介绍MDFS方法实验结果分析讨论和结论背景:在多标签学习中,对象本质上与多个语义相关,数据类型同时面临高特征维数的影响,如生物信息学和文本挖掘等应用。为了解决学习问题,提出了特征选择这一关键技术来降低维数,而以往的多标签特征选择方法大多是从传统的单标签特征选择方法中直接转化而来的,或者是在标签信息的开发过程中半途而废,从而导致了多标签特征选择方法的不足所选特征子集中
好好的同学
·
2022-12-14 16:49
Multi-label
learning
机器学习
方差
Regularized
Linear Regression and Bias v.s. Variance
本文基于吴恩达老师第六周的练习,在这次的练习中,你将会实现正则化的线性回归并且用它去实现不同的偏差和方差的性质。作业大纲1正则化线性回归1.1数据可视化1.2正则化线性回归代价函数1.3正则化线性回归梯度linearRegCostFunction.m1.4线性回归拟合2偏差-方差2.1学习曲线learningCurve.m3多项式回归polyFeatures.m3.1学习多项式回归3.3使用交叉验
Zhanghp947
·
2022-12-14 15:04
算法
机器学习
算法
机器学习
吴恩达机器学习编程作业ex5
Regularized
Linear Regression and Bias v.s. Variance
一、程序及函数1.引导脚本ex5.m%%MachineLearningOnlineClass%Exercise5|RegularizedLinearRegressionandBias-Variance%%Instructions%------------%Thisfilecontainscodethathelpsyougetstartedonthe%exercise.Youwillneedtoco
Polaris_T
·
2022-12-07 15:02
机器学习
机器学习
吴恩达
正则化
多项式回归
练习题
学习笔记:Two-Stage Peer-
Regularized
Feature Recombination for Arbitrary Image Style Transfer
[CVPR-2020]Two-StagePeer-RegularizedFeatureRecombinationforArbitraryImageStyleTransfer任意图像风格迁移的两阶段对等正则化特征重组摘要1.概述1.1背景1.2局限性2.方法2.1整体架构2.2两阶段对等正则化特征重组3.实验3.1定性比较3.2零样本风格迁移3.3消融实验4.总结论文链接:https://arxiv
明天吃啥呀
·
2022-11-28 14:38
迁移学习
风格迁移
计算机视觉
迁移学习
LASSO-Logistic模型--基于R语言glmnet包
从包名就可以大致推测出,glmnet主要是使用Elastic-Net来实现GLM,广大的user可以通过该包使用Lasso、Elastic-Net等
Regularized
方式来完成LinearRegression
yitianguxingjian
·
2022-11-27 12:20
R语言
机器学习
数据挖掘理论
r语言
岭回归
lasso
Logistic
论文阅读10——《Adversarially
regularized
joint structured clustering network》
论文阅读10——《Adversariallyregularizedjointstructuredclusteringnetwork》原文地址:论文阅读10——《Adversariallyregularizedjointstructuredclusteringnetwork》作者:YachaoYang,FujiaoJu,YanfengSun,JunbinGao,BaocaiYin发表时间:2022年
小吴不会敲代码吧
·
2022-11-23 17:27
论文阅读
机器学习
论文阅读
AJSCN
深度聚类
深度学习
#Reading Paper# 【曝光偏差】WWW 2022 UKD: Debiasing Conversion Rate Estimation via Uncertainty-
regularized
#论文题目:【曝光度偏差】UKD:DebiasingConversionRateEstimationviaUncertainty-regularizedKnowledgeDistillation(UKD:通过不确定性正则化知识蒸馏的去偏转化率(CVR)估计)#论文地址:https://arxiv.org/pdf/2201.08024.pdf#论文源码开源地址:暂无#论文所属会议:WWW2022#论
堇禤
·
2022-11-23 03:59
推荐算法
推荐算法-曝光度偏差
人工智能
深度学习
Total Variation
Regularized
Reweighted Sparse Nonnegative Matrix Factorization for Hyperspectral
W.He,H.ZhangandL.Zhang,"TotalVariationRegularizedReweightedSparseNonnegativeMatrixFactorizationforHyperspectralUnmixing,"inIEEETransactionsonGeoscienceandRemoteSensing,vol.55,no.7,pp.3909-3921,July201
m0_51414342
·
2022-11-22 06:04
NMF
解混
文档资料
离线强化学习论文学习 Critic
Regularized
Regression
CriticRegularizedRegression1.摘要离线强化学习(RL),也被称为批量RL,提供了在没有在线环境交互的情况下从大型预记录数据集进行策略优化的前景。它解决了数据收集成本和安全性方面的挑战,这两方面都与RL的实际应用特别相关。不幸的是,大多数非策略算法在从固定数据集学习时表现很差。在本文中,我们提出了一种新的离线RL算法,使用一种形式的临界正则化回归(CRR)从数据中学习策略
孙敬博
·
2022-11-15 17:44
离线强化学习
机器学习
人工智能
离线强化学习
归因分析笔记2:因果正则化学习论文
因果正则化学习Matlib代码https://github.com/Silver-Shen/Causally-
Regularized
-Learning论文https://dl.acm.org/doi/10.1145
lagoon_lala
·
2022-11-14 10:20
科研技巧
人工智能
学习
机器学习
深度学习
吴恩达机器学习(十三)—— ex5:
Regularized
Linear Regression and Bias v.s. Variance(MATLAB+Python)
吴恩达机器学习系列内容的学习目录→\rightarrow→吴恩达机器学习系列内容汇总。一、线性回归的正则化1.1可视化数据集1.2正则化线性回归的代价函数1.3线性回归梯度的正则化1.4拟合线性回归二、偏差和方差2.1学习曲线三、多项式回归3.1学习多项式回归3.2可选练习:调整正则化参数3.3使用交叉验证集选择λλλ3.4可选练习:计算测试集误差3.5可选练习:使用随机选择的样本绘制学习曲线四、
大彤小忆
·
2022-10-19 13:34
机器学习
机器学习
线性回归
偏差方差
医图分割_半监督_左心房3D MRI_MICCAI2020 Local and Global Structure-Aware Entropy
Regularized
Mean Teacher
LocalandGlobalStructure-AwareEntropyRegularizedMeanTeacherModelfor3DLeftAtriumSegmentationAbstractintroductionmethodEntropyRegularizedMeanTeacher(ER-MT)LocalandGlobalStructure-AwareEntropyRegularizedM
yangzy_zy
·
2022-10-04 11:32
医学图像处理论文
计算机视觉
深度学习
《论文阅读》R-Drop:
Regularized
Dropout for Neural Network
《论文阅读》R-Drop:RegularizedDropoutforNeuralNetwork时间:2021/10/29收录:35thConferenceonNeuralInformationProcessingSystems(NeurIPS2021)类型:简单方法提高模型的泛化能力摘要:Dropout是一种强大且广泛使用的技术,用于规范深度神经网络的训练。虽然有效且表现良好,但dropout引入
365JHWZGo
·
2022-09-23 15:32
NLP
论文阅读
深度学习
人工智能
R-Drop
dropout
Regularized
Diffusion Process on Bidirectional Context for Object Retrieval
abstract:diffusion过程能够捕捉到object之间潜在的流形结构。那么到底是哪种流型结构?本文提出了一种亲和学习算法regularizeddiffusionprocess(RDP)。通过RDP,我们为Tensorproductdiffusion过程提供了一种解释。此外,本文还定义了一种衡量流形的平滑度的度量。我们进一步为两个特定的目标贡献了两种变体。ARDP可以学习跨异构域(acr
地球上的某某某
·
2022-02-15 09:40
House Price 房价预测
https://www.kaggle.com/c/house-prices-advanced-regression-techniques大神代码:https://www.kaggle.com/apapiu/
regularized
-linear-mod
克里斯托弗的梦想
·
2022-02-06 21:33
【题解】编程作业ex5:
Regularized
Linear Regression and Bias/Variance (Machine Learning)
吐槽:这个作业用了几个小时,,光是复习前面的就整了半天=。=不过问题不大,也就debug了好久,虽然最后我还是编出来了+_+以后一定要一鼓作气完成某个课程。。。题目:IfyouareusingtheMATLABOnlineaccessprovidedforthiscourse(recommended),orifyouhaveanexistinginstallationofMATLAB(>=R201
zjt1027
·
2020-10-09 23:15
AI/ML/DL相关
题解
MATLAB
Andrew NG 机器学习 练习5-
Regularized
Linear Regression and Bias/Variance
1RegularizedLinearRegression本文根据水库中蓄水标线(waterlevel)使用正则化的线性回归模型预测水流量(waterflowingoutofdam),然后debug学习算法以及讨论偏差和方差对该线性回归模型的影响。1.1Visualizingthedataset本作业的数据集分成三部分:ⓐ训练集(trainingset),样本矩阵(训练集):X,结果标签(label
~无关风月~
·
2020-09-16 20:14
机器学习
Andrew
NG
机器学习
笔记
Regularized
linear regression(正则化线性回归)----吴恩达机器学习
Regularizedlinearregression1.引入1.1梯度下降法1.2正规方程法1.引入接着上一篇文章的讲述,在上一篇文章中,我们将代价函数变为J(θ)=12m[∑i=1m(hθ(x)−y)2+λ∑i=1nθj2]J(\theta)=\frac{1}{2m}[\sum_{i=1}^m(h_{\theta}(x)-y)^2+\lambda\sum_{i=1}^n\theta_j^2]J
三省少年
·
2020-09-16 19:16
机器学习
coursera
正则化
线性回归
regularized
linear
吴恩达机器学习笔记21-正则化线性回归(
Regularized
Linear Regression)
对于线性回归的求解,我们之前推导了两种学习算法:一种基于梯度下降,一种基于正规方程。正则化线性回归的代价函数为:如果我们要使用梯度下降法令这个代价函数最小化,因为我们未对theta0进行正则化,所以梯度下降算法将分两种情形:对上面的算法中?=1,2,...,?时的更新式子进行调整可得:可以看出,正则化线性回归的梯度下降算法的变化在于,每次都在原有算法更新规则的基础上令?值减少了一个额外的值。我们同
weixin_33919941
·
2020-09-16 19:07
数据结构与算法
人工智能
日程计划
2014.3.19师兄讲坛任务分配:(Deadline:2014-3-22,周六)1.调查问卷(肖)2.胸章图案(李)3.林老师(夏)4.邮件(许)下周解决问题:1.岭回归、
Regularized
原因(
thursdaynights
·
2020-09-16 19:52
regularized
linear regression
closeall,clear,clc%loaddatax=load('ex5Linx.dat');y=load('ex5Liny.dat');%plotrawdataplot(x,y,'o','MarkerEdgeColor','b','MarkerFaceColor','r');m=length(y);x=[ones(m,1),x,x.^2,x.^3,x.^4,x.^5]lambda=[0,1,
ahuang1900
·
2020-09-16 19:11
Machine
Learning
线性回归正则化
regularized
linear regression
线性回归正则化regularizedlinearregression在前几篇博客中介绍了一元线性回归http://blog.csdn.net/u012328159/article/details/50994095和多元线性回归http://blog.csdn.net/u012328159/article/details/51029695等线性回归的知识,具体请参见本人其他博客。但是线性回归存在一个
天泽28
·
2020-09-16 17:08
machine
learning&deep
learning
论文笔记5 --(ReID)Diversity
Regularized
Spatiotemporal Attention for Video-based Person Re-id
《DiversityRegularizedSpatiotemporalAttentionforVideo-basedPersonRe-identification》论文:https://arxiv.org/pdf/1803.09882.pdf这是一篇videobase的PersonRe-ID的工作。该论文主要集中在提取时空两个方向的attention。输入一个视频序列,使用约束的随机采样策略选择一
零尾
·
2020-09-15 05:54
Deep
Learning
Person
Re-ID
机器学习之在线学习算法FTRL
google提出的FTRL(Follow-the-
regularized
-Leader)算法,在处理诸如逻辑回归之类的带非光滑正则化项(例如1范数,做模型复杂度控制和稀疏化)的凸优化问题上性能非常出色。
喂鱼W_y
·
2020-09-12 04:49
机器学习
广告推荐
regularized
negative binomial regression对单细胞数据进行标准化
由于技术因素,scRNA-seq数据可能由于每个细胞中检测到的分子数量不同导致细胞与细胞间的差异。为了解决区分生物学异质性与技术造成的差异,本文提出正则化负二项分布中的皮尔逊残差(其中细胞测序深度用作广义线性模型中的协变量)在保留生物异质性的同时成功地消除了测序深度的影响。文章原文:https://link.springer.com/article/10.1186/s13059-019-1874-
生信编程日常
·
2020-09-05 10:25
FTRL-Proximal
FTRL-Proximal全称Followthe-
Regularized
-LeaderProximal,是谷歌公司提出的在线学习算法,在处理带非光滑正则项(例如$l_1$范数)的凸优化问题上表现出色。
AGUILLER
·
2020-08-24 17:12
机器学习
tensorflow
【点云识别】Mapping in a Cycle: Sinkhorn
Regularized
Unsupervised Learning for Point Cloud Shapes ECCV2020
MappinginaCycle:SinkhornRegularizedUnsupervisedLearningforPointCloudShapes本文介绍一篇ECCV2020里面关于点云无监督学习的文章。论文目前还没有开源代码1.问题点云形状的无监督学习2.思想本文的主体思路是延续Unsupervisedcycle-consistentdeformationforshapematching这篇文
orientliu96
·
2020-08-17 18:08
点云识别
点云
Deblurring Text Images viaL0-
Regularized
Intensity and Gradient Prior
1、我们提出一种新颖的l0正则化强度和梯度先验,用于文本图像去模糊,基于强度与梯度先验的L0L_0L0正则化文本图像去模糊2、基于半二次方分裂法(half-quadraticsplittingmethod)3、textandlowilluminationimages4、清晰文本图像的像素强度大多数的是俩值,接近0和2555、清晰图片和模糊的图片的直方图是完全不同的6、模糊文本图像的像素值更密集7、
SYUX1N_
·
2020-08-16 20:06
论文
图像去模糊
上一页
1
2
3
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他