E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
小批量正则化
Pytorch基础学习(第六章-Pytorch的
正则化
)
课程一览表:目录一、
正则化
之weight_decay1.
正则化
与方差、偏差、噪声的概念2.
正则化
策略(L1、L2)3.pytorch中的L2正则项——weightdecay二、BacthNormalization1
Billie使劲学
·
2022-11-27 09:59
Pytorch基础知识学习
pytorch
Pytorch学习-损失函数和
正则化
损失函数说明一般来说,监督学习的目标函数由损失函数和
正则化
项组成。(Objective=Loss+Regularization)Pytorch中的损失函数一般在训练模型时候指定。
Zzz_啥都不会
·
2022-11-27 09:28
Pytorch
python
L1/L2
正则化
在Pytorch的实现
L2主要是对参数W进行约束,偏执b相对W来说不影响模型,自己代码出现过拟合,需要添加L2
正则化
来处理,记录在此。
yzZ_here
·
2022-11-27 09:27
深度学习笔记(二十九)卷积神经网络之卷积运算和边缘检测
第二课中系统学习了深层神经网络的改善策略(超参数调试、
正则化
、网络优化),第一次开始接触偏差/方差分析方法,多种
正则化
方法减小方差,Mini-batch,多种优化器,BatchNorm,Softmax回归
Mr.zwX
·
2022-11-27 09:21
【深度学习/神经网络】Deep
Learning
分类预测 | MATLAB实现SVM(支持向量机)多特征分类预测
SVM使用铰链损失函数计算经验风险并在求解系统中加入了
正则化
机器学习之心
·
2022-11-27 09:18
#
SVM支持向量机
分类预测
支持向量机
SVM
多特征分类预测
AlexNet
AlexNet一、AlexNet网络1.网络概述AlexNet:有5层卷积和2层全连接隐藏层,以及1个全连接输出层;使⽤ReLU激活函数、Dropout
正则化
(类似集成学习的思想,在训练过程中按照⼀定⽐
老龙QAQ
·
2022-11-27 08:00
深度学习基础网络
python
深度学习
pytorch
LASSO回归损失函数详解
这两个都是
正则化
的手段。LASSO是基于回归系数的一范数,Ridge是基于回归系数的二范数的平方。
刘根生
·
2022-11-27 08:19
机器学习中常见的损失函数
NL(y_i,f(x_i))+\lambda\Omega(f)fminN1i=1∑NL(yi,f(xi))+λΩ(f)其中前一项表示在样本上预测函数与真实值间误差的经验风险;而后一项则是对模型复杂度的
正则化
项
guofei_fly
·
2022-11-27 08:13
机器学习
损失函数
机器学习模型评估与预测
性能度量1.3.1查准率,查全率,准确率1.3.2P-R曲线、平衡点和F1度量1.3.2.1P-R曲线1.3.2.2平衡点(BEP)1.3.2.3F1度量1.3.3ROC与AUC1.4偏差与方差1.5
正则化
线性回归的偏差
『 venus』
·
2022-11-27 08:56
机器学习
机器学习评估预测
初始化、
正则化
调试(基于简单Linear,pytorch)
一.权重初始化(正态分布可以加速学习):初始化权重,使其数据保持标准差在1左右以防止梯度消失或者爆炸,在卷积神经网络中常用,pytorch直接默认了自定义初始化权重importtorch.nnasnnimporttorchclassNetwork(nn.Module):def__init__(self):super().__init__()self.Conv2d=nn.Conv2d(3,10)se
lryjy
·
2022-11-27 03:19
pytorch
深度学习
【学习笔记-时间序列预测】prophet-使用.2变化点检测、趋势灵活性调整
1.变化点自动检测指定增长速率可变的点来检测变化点,先对速率变化幅度进行L1
正则化
。默认情况下,Prophet指定了25个变化点,均匀地放置在时间序列的前80%中。图中的垂直线表示变化点的位置。
Sarielllll
·
2022-11-27 01:40
时间序列分析
机器学习
python
时序模型
正则维纳滤波matlab,
正则化
约束维纳滤波
在图像盲反卷积的过程中,最主要的难点是缺少点扩散函数的足够信息而导致的病态问题.解决此问题可以通过对原始图像和点扩散函数同时进行
正则化
约束.为了在图像复原过程......关键词图像复原,维纳滤波,点扩散函数
土豆焖马铃薯
·
2022-11-27 01:07
正则维纳滤波matlab
机器学习中
正则化
项的理解
最小化误差是为了让我们的模型拟合我们的训练数据,而
正则化
是防止我们的模型过分拟合我们的训练数据。
NCU_wander
·
2022-11-26 23:57
机器学习
损失函数、风险函数、目标函数
损失函数(单个样本)/代价函数(整个数据集)→风险函数→+
正则化
(过拟合)=目标函数参考链接机器学习中的目标函数、损失函数、代价函数机器学习中的代价函数、损失函数、风险函数、目标函数
Neurant
·
2022-11-26 23:57
机器学习
矩阵
线性代数
机器学习
Coursera 机器学习(by Andrew Ng)课程学习笔记 Week 3——逻辑回归、过拟合与
正则化
此系列为Coursera网站机器学习课程个人学习笔记(仅供参考)课程网址:https://www.coursera.org/learn/machine-learning参考资料:http://blog.csdn.net/scut_arucee/article/details/49889405一、ClassificationandRepresentation1.1分类问题(classificatio
StarCoo
·
2022-11-26 20:59
机器学习
机器学习
正则化
逻辑回归
过拟合
机器学习——
正则化
逻辑回归(分类)编程训练
机器学习——
正则化
逻辑回归(分类)编程训练参考资料:1.黄海广老师:吴恩达机器学习笔记github本文是吴恩达机器学习课程中的第二个编程训练的第二部分。
苏打水可乐
·
2022-11-26 20:29
机器学习
《机器学习》学习笔记3:逻辑回归与
正则化
Week3逻辑回归与
正则化
基于吴恩达《机器学习》课程参考黄海广的笔记本篇博客为第三周的内容。
Mengo_x
·
2022-11-26 19:56
机器学习
Python与AI
机器学习
算法
神经网络
人工智能
李宏毅机器学习笔记:回归 ——梯度下降法 过拟合
正则化
李宏毅机器学习笔记:回归——梯度下降法过拟合
正则化
学习笔记总结:源学习笔记链接:https://datawhalechina.github.io/leeml-notes/#/chapter3/chapter3
麻麻在学习
·
2022-11-26 19:23
机器学习
【成长笔记】逻辑回归与
正则化
ng的第三周课程讲的内容十分丰富,可花了我不少时间来消化。嗯,开局先抛出一个问题哈,譬如,如何根据已有的邮件数据(贴上了垃圾邮件与非垃圾邮件的标记),来判断未来的一封邮件是否是垃圾邮件呢?以上的问题本质上是一个分类问题,而且是一个二元分类,通俗讲就是非此即彼。假设我们标记垃圾邮件为0,标记非垃圾邮件为1,邮件的一些特征我们也进行数值化,利用我们之前了解的特征缩放等将数据整理。那么,我们需要的是一个
portfloat
·
2022-11-26 19:52
成长日志
机器学习
逻辑回归
正则化
机器学习/算法面试笔记1——损失函数、梯度下降、优化算法、过拟合和欠拟合、
正则化
与稀疏性、归一化、激活函数
1、损失函数2、梯度下降3、优化算法4、过拟合和欠拟合5、
正则化
与稀疏性6、归一化7、激活函数损失函数损失函数分为经验风险损失函数和结构风险损失函数。
坚持做好自己的hannah
·
2022-11-26 19:22
秋招算法
算法
面试
【机器学习】DS的基础学习笔记2:逻辑回归与
正则化
文章目录逻辑回归与
正则化
2.1逻辑回归2.1.1分类问题2.1.2假说表示与决策边界2.1.3代价函数及其简化形式2.1.4梯度下降以及高级优化2.1.5多类别分类:一对多2.2
正则化
(Regularization
DoubleS!
·
2022-11-26 19:51
Double
S的机器学习基础笔记
机器学习
逻辑回归
【pytorch学习笔记六】深度学习基础(线性回归、损失函数、梯度下降、欠拟合与过拟合,
正则化
)
文章目录1.监督学习和无监督学习2.线性回归3.损失函数4.梯度下降4.1梯度4.2Mini-batch的梯度下降法4.3常见梯度下降算法5.欠拟合与过拟合(高偏差/高方差)6.
正则化
上面可视化深度学习网页网址
QHCV
·
2022-11-26 19:18
Pytorch学习笔记
深度学习
pytorch
机器学习
正则化
(Regularization)和梯度下降——线性回归和逻辑回归
正则化
(Regularization)针对于回归类算法或者分类算法,如线性回归和逻辑回归,它们能够有效地解决许多问题,但是当将它们应用到某些特定的机器学习应用时,会遇到过拟合(over-fitting)
從疑開始
·
2022-11-26 19:17
正则化
梯度下降
机器学习笔记(11)— 简化逻辑回归代价函数、梯度下降实现、过拟合、
正则化
、线性和逻辑回归正则方法
目录简化逻辑回归代价函数实现梯度下降过拟合问题解决过拟合
正则化
用于线性回归的正则方法用于逻辑回归的正则方法简化逻辑回归代价函数因为y不是1就是0,所以可以想出一个更简单的方法来写这个损失函数,下面的一行公式等价于上面这个复杂的公式代价函数
AUG-
·
2022-11-26 19:17
机器学习
逻辑回归
回归
提升模型性能的几个方法以及训练集测试集验证集的划分与作用
关于权重的
正则化
约束。因为单纯的不断增强数据量,还是不够的。因为提升过的数据是高度相关的。对抗过拟合应该主要关注模型的“熵容量”也就是模型
shu_qdHao
·
2022-11-26 17:19
tensorflow
深度学习
训练集验证集测试集
模型融合
batch_size
模型融合
模型提升
训练集验证集
bathcsize
测试集
Local Augmentation for Graph Neural Networks
1内容简介2主要贡献3准备工作4LA-GNN4.1局部增强-LA4.1.1动机4.1.2效果4.1.3方法4.1.4讨论4.2从下游图学习的生成模型训练4.3损失函数4.3.1监督损失4.3.2一致性
正则化
损失
猪猪的菜牙
·
2022-11-26 14:56
深度学习
机器学习
CNN的Python实现——第二章:线性分类器
2.2.2概率解释2.2.3代码实现2.3优化2.4梯度下降法2.4.1梯度的解析意义2.4.2梯度的几何意义2.4.3梯度的物理意义2.4.4梯度下降法代码实现2.5牛顿法2.6机器学习模型统一结构2.7
正则化
晴晴_Amanda
·
2022-11-26 13:28
卷积神经网络的python实现
机器学习
【综述】一篇适合新手的深度学习综述
来源:机器之心作者:MatiurRahmanMinar、JibonNaher这篇综述论文列举出了近年来深度学习的重要研究成果,从方法、架构,以及
正则化
、优化技术方面进行概述。
人工智能与算法学习
·
2022-11-26 13:40
综述 | 近年来深度学习的重要研究成果(附PDF)
论文地址:https://arxiv.org/pdf/1807.08169v1.pdf来源:机器之心本文约1万字,建议阅读15分钟本文列举出了近年来深度学习的重要研究成果,从方法、架构,以及
正则化
、优化技术方面进行概述
lingpy
·
2022-11-26 13:35
Deep
Learning
note
深度学习
综述
paper
新手的深度学习综述 | 入门
这篇综述论文列举出了近年来深度学习的重要研究成果,从方法、架构,以及
正则化
、优化技术方面进行概述。
hellozhxy
·
2022-11-26 13:05
机器学习
写给新手的深度学习综述,收藏了
13:21在看|星标|留言,真爱选自arXiv作者:MatiurRahmanMinar、JibonNaher机器之心编译这篇综述论文列举出了近年来深度学习的重要研究成果,从方法、架构,以及
正则化
、优化技术方面进行概述
DevolperFront
·
2022-11-26 13:03
AI和人工智能专栏
一篇适合新手的深度学习综述!
Datawhale干货方向:深度学习,来源:机器之心荐语文章列举出了近年来深度学习的重要研究成果,从方法、架构,以及
正则化
、优化技术方面进行概述。
Datawhale
·
2022-11-26 13:02
神经网络
卷积
大数据
算法
编程语言
Pytorch损失函数losses简介
一般来说,监督学习的目标函数由损失函数和
正则化
项组成。(Objective=Loss+Regularization)Pytorch中的损失函数一般在训练模型时候指定。
瞳瞳瞳呀
·
2022-11-26 11:43
Pytorch框架基础
pytorch
深度半监督学习笔记(三):一致性
正则化
前几天更新了一致性
正则化
的前五种方法,我们可以看到整个模型也在不断的进步,从单纯的对噪声进行学习以增强网络的鲁棒性到应用对抗学习的一些知识。
IRONFISHER
·
2022-11-26 10:27
机器学习笔记
算法
机器学习
深度学习
机器学习——线性回归
目录1、最小二乘法及其几何意义2、最小二乘法-概率视角-高斯噪声-MLE(极大似然估计)3、
正则化
-岭回归4、
正则化
-岭回归-概率角度-高斯噪声高斯先验这一阵子重新回顾了机器学习的几个基础模型和一些重要的概念
chendelun
·
2022-11-26 07:11
机器学习
动手学深度学习day-two
动手学深度学习day-two过拟合、欠拟合及其解决方案模型选择、过拟合和欠拟合训练误差和泛化误差模型选择验证数据集K折交叉验证过拟合和欠拟合模型复杂度训练数据集大小权重衰减方法L2范数
正则化
(regularization
__y__
·
2022-11-26 07:19
数据增强实测之cutout
cutout是2017年提出的一种数据增强方法,想法比较简单,即在训练时随机裁剪掉图像的一部分,也可以看作是一种类似dropout的
正则化
方法。
一个菜鸟的奋斗
·
2022-11-26 05:07
数据增强
图像分类
深度学习
cutout
数据增强
图像分类
深度学习
【
正则化
】DropPath/drop_path用法
DropPath/drop_path是一种
正则化
手段,其效果是将深度学习模型中的多分支结构随机”删除“,python中实现如下所示:defdrop_path(x,drop_prob:float=0.
风巽·剑染春水
·
2022-11-26 01:33
python
深度学习
正则化
使用数据增强从头开始训练卷积神经网络(CNN)
存在一些有助于克服过度拟合的方法,即dropout和权重衰减(L2
正则化
)。我们将讨论数据增强,这是计算机视觉独有的,在使用深度学习模型解释图像时,数据增强在任何地方都会用到。
woshicver
·
2022-11-26 00:14
岭回归和LASSO回归
先说一下泛化和
正则化
的概念,泛化是指已经训练好的机器学习模型在处理未遇到的样本时的表现,即模型处理新样本的能力。很多时候模型在训练集里猛如虎,在测试集上就很离谱(错误率很高),即泛化能力差。
全栈O-Jay
·
2022-11-25 23:48
人工智能
回归
机器学习
回归算法
Group Lasso
简介Lasso(leastabsoluteshrinkageandselectionoperator,又译最小绝对值收敛和选择算子、套索算法)是一种同时进行特征选择和
正则化
(数学)的回归分析方法,旨在增强统计模型的预测准确性和可解释性
llzz嗯哈
·
2022-11-25 23:48
python多项式拟合结合lasso回归_线性回归的
正则化
——岭回归与LASSO回归
基于广义线性模型的机器学习算法——线性回归》中我们介绍了如何使用线性回归算法来拟合学习器,但有时使用线性回归可能会产生过拟合的现象,此时我们通常有两种途径解决:一是对特征进行选择,减少特征数量,二是使用
正则化
的方法
weixin_39533052
·
2022-11-25 23:16
mixup
正则化
:数据增强—mixup论文链接:mixup:BEYONDEMPIRICALRISKMINIMIZATION(ICLR-2018)mixup的基本原理通过构建数据对之间的线性组合,构建了经验分布的近邻分布
咻咻咻哈
·
2022-11-25 23:10
机器学习
计算机视觉
机器学习
Lasso 稀疏约束 + Group Lasso 分组最小角回归算法
背景Lasso(leastabsoluteshrinkageandselectionoperator,又译最小绝对值收敛和选择算子、套索算法)是一种同时进行特征选择和
正则化
(数学)的回归分析
byn12345
·
2022-11-25 23:36
论文
算法
Lasso回归系列二:Lasso回归/岭回归的原理
Lasso回归/岭回归的原理在学习L1,L2
正则化
的作用和区别时,我们总是会看到这样的一副图片:这幅图片形象化地解释了L1,L2对线性模型产生的不同的约束效果。我最开始其实是不太理解为什么要这么画的。
咻咻咻哈
·
2022-11-25 23:33
机器学习
回归
逻辑回归
李宏毅机器学习课程自测练习题
简介线性分类与感知机数学基础卷积神经网络循环神经网络自注意力机制Transformer自监督学习自编码器对抗生成网络可解释AI与对抗攻击领域自适应深度强化学习I.序言1.下列哪种方法可以用来减小过拟合A.更多的训练数据B.L1
正则化
xiongxyowo
·
2022-11-25 22:52
杂文
划水
吴恩达机器学习课后作业Python实现(三):多类分类与前馈神经网络
目录多类分类数据集数据可视化
正则化
逻辑回归
正则化
代价函数
正则化
梯度One-vs-all分类One-vs-all预测前馈神经网络模型表示模型搭建前馈传播与预测参考文章多类分类在本练习中,您将使用逻辑回归和神经网络来识别手写数字
Hyxx.
·
2022-11-25 21:17
机器学习
神经网络
python
分类
#深入分析# 深度学习中如何防止模型过拟合
dropout层一般添加在全连接层之后2.
正则化
在模型优化过程中,样本的某些异常值会使模型某些节点的W变得很大,而模型中的对于
energy_百分百
·
2022-11-25 20:14
机器学习
深度学习
过拟合
正则化
dropout
神经网络
李宏毅机器学习 之 神经网络训练不起来怎么办(五)
二、批次Batch与动量法Momentum1、Batch和Epoch1)随机梯度下降StochasticGradientDescent2)
小批量
梯度下降Mini-batchGradientDescent3
Arbicoral
·
2022-11-25 20:40
机器学习
深度学习
机器学习
batch
李宏毅深度学习自用笔记(未完)
1.机器学习的三个步骤:2.线性回归模型2.梯度下降2.如何选择模型、减小误差2.欠拟合2.过拟合2.平滑2.
正则化
2.交叉验证3.梯度下降再回顾3.自适应学习率3.Adagrad4.分类模型4.为什么不能把分类当成回归去做
嫣然一笑媚众生
·
2022-11-25 20:01
深度学习
上一页
49
50
51
52
53
54
55
56
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他