E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
小批量正则化
西瓜书学习笔记第5章【神经网络】
章【神经网络】5.1神经元模型5.2感知机与多层网络一、感知机二、多层功能神经元(多层网络)5.3误差逆传播算法(反向传播(BP)算法)对各个参数更新公式的推导“早停(earlystopping)”“
正则化
Halozzk
·
2022-06-27 13:45
西瓜书-机器学习(学习笔记)
机器学习
深度学习
卷积神经网络
神经网络
人工智能
研究生周报(第七周)
研究生周报(第七周)学习目标吴恩达深度学习课程
正则化
梯度检验归一化处理多种梯度下降算法学习时间6.19~6.25学习产出Python代码github记录
正则化
L2
正则化
用于避免过拟合minw,bJ(w,
mappler
·
2022-06-27 07:15
机器学习
算法
人工智能
机器学习期末考试复习资料,全是干货,过过过
对数据进行处理使得可以使用机器学习的方法对它运用,特征提取、特征降维、特征选择等整理预处理对数据集进行清洗---建模-选择合适的机器学习的方法,构造一个模型,对模型进行训练--对模型进行评价(策略)---应用第二章机器学习基本方法L1
正则化
张张攻城狮
·
2022-06-27 07:45
神经网络
机器学习
深度学习
【研究生工作周报】(第七周)
学习目标:GAN对抗生成网络《深度学习》第六章前馈神经网络《深度学习》第七章深度学习中的
正则化
学习内容:IanJ.Goodfellow《GenerativeAdversarialNets》李宏毅深度学习课程关于
wangyunpeng33
·
2022-06-27 07:29
计算机视觉
人工智能
机器学习
分布式机器学习:同步并行SGD算法的实现与复杂度分析(PySpark)
其中,SSGD算法每次依据来自个不同的工作节点上的样本的梯度来更新模型,设每个工作节点上的
小批量
大小为,则该算法等价于批量大小为的
小批量
随机梯度下降法。
orion-orion
·
2022-06-26 11:00
简述lasso估计以及调节参数的CV与BIC准则
估计最先是由斯坦福大学的著名统计学家Tibshirani[2]提出的,其思想就是加一项惩罚函数,然后进行变量选择和参数估计,其可以表示为:(1)即Lasso估计就是寻找最小的,其中,是调节参数,n为样本容量,满足(1)式的称为
正则化
橒
·
2022-06-24 07:56
r语言
机器学习
经典神经网络( AlexNet,VggNet,NiN,GoogLeNet,ResNet)
正则化
方法数据集增强dropout,随机关闭神经元实现代码importtorchfromtorchimportnnnet=nn.Sequential(#这里,我们使用一个11*11的更大窗口来捕捉对象。
@秋野
·
2022-06-23 07:42
经典模型
神经网络
深度学习
cnn
机器学习1-线性回归、Ridge回归、LASSO回归
形式化定义2.梯度下降法1)举例2)数学原理3)代码演示3.梯度下降法求解线性回归1)理论2)线性回归代码实现梯度下降算法4.梯度下降算法的变形5.模型评价指标1)理论2)模型评价指标代码6.欠拟合与过拟合与
正则化
哎呦-_-不错
·
2022-06-22 07:18
#
机器学习基础
机器学习
算法
python
机器学习算法笔记-线性回归的实验过程
线性回归的实验过程参数直接求解方法数据预处理梯度下降模块学习率对结果的影响学习率衰减3种策略的对比多项式回归模型复杂度样本数量对实验的影响
正则化
的作用参数直接求解方法如下图所示,根据目标函数的极值可以直接求出参数
diudiu~bo
·
2022-06-22 07:40
机器学习经典算法
深度学习
机器学习
线性代数
【机器学习】 吴恩达机器学习作业 ex2逻辑回归 Matlab实现
文章目录内容回顾1.1假说表示1.2判定边界1.3代价函数1.4高级优化1.5
正则化
ex2逻辑回归作业2.1Part1:Plotting绘图2.2Part2:ComputeCostandGradient
Lydia.na
·
2022-06-22 07:57
机器学习
逻辑回归
机器学习
matlab
机器学习sklearn-线性回归
目录基本原理linear_model.LinearRegression多重共线性岭回归linear_model.Ridge选择最佳
正则化
系数LassoLasso的核心作用:特征选择选择最佳正则参数基本原理表达式损失函数这个损失函数实在计算我们的真实标签和预测值之间的距离
kongqing23
·
2022-06-22 07:25
机器学习
sklearn
线性回归
评价学习算法:欠拟合和过拟合,方差和偏差,学习曲线,不同神经网络架构优缺点
1.算法
正则化
可以有效防止过拟合的问题,
正则化
就是在代价方差函数之后添加一项,惩罚西塔参数,让西塔参数不至于过大2.当
正则化
参
明夜不点灯
·
2022-06-20 13:01
机器学习
算法
深度学习
机器学习
神经网络与深度学习(一)
神经网络其实在学习神经网络之前,掌握基本的机器学习知识很重要,要不学起来还是比较吃力,从监督学习的梯度下降算法(对后面的学习应用很广泛),到极大似然估计,从激活函数的种类与选择,到损失函数的确定,以及
正则化
longongng
·
2022-06-20 07:32
神经网络
深度学习
【论文笔记】Image Inpainting by Patch Propagation Using Patch Sparsity
文章目录一.概览1.算法结构概述2.数据表示二.patchprioritiy三.patchsparserepresentation四.算法流程一.概览1.算法结构概述 稀疏表示的概念:图像或信号由稀疏
正则化
下的超完备库
渔舟小汀
·
2022-06-18 07:24
论文阅读
图像修复
算法
【深度学习基础】从零开始的炼丹生活07——深度模型中的优化
往期回顾:04——从传统机器学习走向深度学习05——深度前馈网络、神经网络概述06——深度学习中的
正则化
介绍了神经网络的基本构件和
正则化
策略之后,学习一下深度模型中的优化。
wby1905
·
2022-06-17 07:56
【深度学习】从零开始的炼丹生活
神经网络
算法
深度学习
神经网络相关的概念和术语
目录模型训练指标损失激活函数优化器
正则化
层其他模型训练编译:compile拟合:fit过拟合:overfit欠拟合:underfit随机初始化:radominitialization前向传播:fowardpass
天边一坨浮云
·
2022-06-16 07:36
机器学习方法和技术
深度学习
机器学习
人工智能
神经网络
对比学习(二)-模型坍塌-infoNCE损失函数
接对比学习(一)对比学习(二)L2正则使用原因模型坍塌infoNCE损失函数负例难度L2正则使用原因使用l2
正则化
的原因:对比学习在做特征相似度计算时,要先对表示向量做l2
正则化
然后再做点积计算,或者进行
椒椒。
·
2022-06-16 07:29
对比学习
学习
机器学习
深度学习
神经网络算法中代价函数、反向传播算法
神经网络的代价函数(xi,Yi):代表事件L:代表层数Sl:代表每层的个数左边是两类分类,右边是多类分类1.加号之后那项是
正则化
的项,上面的是两类分类的线性回归公式,下面的是多类分类的项。
明夜不点灯
·
2022-06-14 10:31
机器学习
机器学习
人工智能
机器学习13种算法的优缺点,你都知道哪些?
正则化
算法(RegularizationAlgorithms)集成算法(EnsembleAlgorithms)决策树算法(DecisionTreeAlgorithm)回归(Regression)人工神经网络
weixin_34362991
·
2022-06-13 13:33
人工智能
大数据
数据结构与算法
梯度下降算法原理以及代码实现---机器学习
梯度下降算法GD--一种经典的优化方法1.批量梯度下降算法BGD原理代码实现2.随机梯度下降算法SGD原理代码实现3.
小批量
梯度下降算法MGD原理代码实现梯度下降算法是一种常用的一阶优化方法,是求解无约束优化问题最简单
卷了个积寂寞
·
2022-06-13 07:27
机器学习
机器学习
浅谈sklearn中的数据预处理
目录前言一、标准化(StandardScaler)二、归一化(MinMaxScaler)三、
正则化
(Normalizer)四、绝对值最大标准化(MaxAbsScaler)五、二值化(Binarizer)
raelum
·
2022-06-13 07:07
Machine
Learning
Python
sklearn
机器学习
python
吴恩达机器学习课程第七周笔记
吴恩达机器学习课程第七周笔记超参数调试、Batch
正则化
和程序框架(Hyperparametertuning)调试处理(Tuningprocess)为超参数选择合适的范围(Usinganappropriatescaletopickhyperparameters
DreamHigh_GRT
·
2022-06-12 15:10
机器学习
吴恩达机器学习课程笔记
吴恩达机器学习课程-第六周(part1)
获得更多的训练样本尝试减少特征的数量尝试获得更多的特征尝试增加多项式特征尝试减少
正则化
程度λ\lambdaλ尝试增加
正则化
程度λ\lambdaλ但是如果随机选择上面的某种方法来改进我们的算法会浪费很多事件
J___code
·
2022-06-12 15:10
机器学习
机器学习
偏差
方差
交叉验证
pytorch贝叶斯网络_使用贝叶斯优化快速调试pytorch中的超参数的快速教程
Hyperparametersaretheparametersinmodelsthatdeterminemodelarchitecture,learningspeedandscope,andregularization.超参数是确定模型架构,学习速度和范围以及
正则化
的模型中的参数
weixin_26748251
·
2022-06-12 12:26
java
人工智能
python
机器学习
linux
[深度学习] 超参数优化
一、神经网络的超参数:层数、每层神经元个数、激活函数、学习率(各种优化算法中包含的参数)、
正则化
参数、mini-batch大小。
熊熊的小心心
·
2022-06-12 12:24
深度学习
深度学习
神经网络
PyTorch学习笔记-目录
PyTorch学习笔记此笔记涉及PyTorch的基础语法、模型搭建、损失优化、可视化、
正则化
、训练技巧等知识,比较完整PyTorch学习笔记。
ruoqi23
·
2022-06-12 09:23
笔记
人工智能
深度学习
pytorch
机器学习--降维
原理详解:主成分分析(PCA)原理详解-知乎(zhihu.com)PCA数学原理解释:CodingLabs-PCA的数学原理SVD奇异值分解:奇异值分解(SVD)-知乎(zhihu.com)过拟合增加数据
正则化
降维直
jiangchao98
·
2022-06-12 07:37
机器学习
机器学习
机器学习-白板推导系列(五)-降维(Dimensionality Reduction)
在线性回归中介绍过,解决过拟合的问题中,我们常用的方法是:增加数据量、
正则化
和降维。我们也曾用过Lasso和Ridge两种
正则化
方法,增加penalty使得www趋向于000,来消除一些特征。
Paul-Huang
·
2022-06-12 07:05
机器学习-白板推导
机器学习
算法
13. Dropout【动手学深度学习v2】
使用有噪音的数据其实是一种
正则化
的手段(等价于Tikhonov正则)Dropout则是在层之间加入噪音,本质上是一种
正则化
的手段2.计算与使用无偏差地加入噪音(期望保持不变)E[x′]=p∗0+(1−p
hei_hei_hei_
·
2022-06-12 07:35
学习笔记
深度学习
cnn
人工智能
机器学习--线性回归(Linear Regression)
线性回归:最小二乘法:从概率角度来看线性回归
正则化
(L1,L2)首先我们来看一个数据:有这么一组样本点,线性回归就是找出一条拟合样本点的线。
AI_孟菜菜
·
2022-06-12 07:27
机器学习
线性回归
机器学习
线性回归
回归
机器学习基础 --- 线性回归(Linear Regression)
内容简介符号说明一、线性回归(最小二乘法及其几何意义)1、矩阵表达下的最小二乘法2、最小二乘法的几何意义二、线性回归(最小二乘法-概率视角-高斯噪声-MLE)三、线性回归(
正则化
-岭回归)四、线性回归(
dc_sinor
·
2022-06-12 07:53
数学建模算法
机器学习
线性回归
线性代数
【特征工程】数据降维
加快运算速度有利于防止过拟合(但防止过拟合最好的方法却是
正则化
)减少用来存储数据的空间2.3数据降维当特征选择完成之后,可以直接训练模型,但是可能由于矩阵过大,导致计算量大,训练时间长的问题,因此降低特征矩阵维度也就必不可少了
AI study
·
2022-06-11 17:11
机器学习
数据降维
特征工程
ETL
机器学习
数据分析
基于视觉显著性的车载单目相机自运动估计及前车尺度估计方法
其次,将前车距离转化为前车尺度估计问题,通过描述子匹配与李代数中
正则化
的强度匹配相结合的方法最小化损失函数,通过设计视觉注意力机
罗伯特之技术屋
·
2022-06-11 07:11
网络通信科学技术专栏
计算机视觉
深度学习
机器学习
12种Dropout方法,如何应用与CNN,RNN,DNN
作者:AxelThevenot编译:ronghuaiyang转载自:AI公园导读深入了解DNNs,CNNs以及RNNs中的Dropout来进行
正则化
,蒙特卡洛不确定性和模型压缩的方法。
可基大萌萌哒的马鹿
·
2022-06-10 07:01
pytorch
深度学习
人工智能
使用PyTorch实现简单的RNN
使用PyTorch实现简单的RNN假设Xt∈Rn×dX_t\inR^{n\timesd}Xt∈Rn×d是序列中时间步ttt的
小批量
输入,Ht∈Rn×hH_t\inR^{n\timesh}Ht∈Rn×h是该时间步输入的隐藏变量
Training.L
·
2022-06-10 07:43
深度学习
深度学习
nlp面试题目集锦
(2).使用的模型的计算量,Flops(3)共享参数,为什么可以提升效果(起到
正则化
的作用)(4)LSTM和transformer的各自的优缺点,以及复杂度分析(5)BN层和LN层的区别,为什么自然语言处理里面用
ltochange
·
2022-06-09 07:46
nlp应用
自然语言处理
面试
面试题笔记【一】
1、逻辑回归优缺点优点:(1)实现简单,广泛的应用于工业问题上;(2)分类时计算量非常小,速度很快,存储资源低;(3)便利的观测样本概率分数;(4)对逻辑回归而言,多重共线性并不是问题,它可以结合L2
正则化
来解决该问题
huangxi000
·
2022-06-08 07:09
机器学习
深度学习
python
CVPR 2022 | 未知目标检测模块STUD:学习视频中的未知目标
文章提出了一种基于时空未知蒸馏(STUD)的未知目标检测框架,该框架从野外视频中提取(蒸馏出)未知目标,并对模型的决策边界进行有意义的
正则化
。
CV技术指南(公众号)
·
2022-06-07 12:48
论文分享
目标检测
pytorch
计算机视觉
深度学习
人工智能
2021李宏毅机器学习笔记--11 explainable ML
11explainableML摘要一、局部可解释性1.1基本思想1.2移除组成要素1.3改变组成要素1.4局限性1.5实例(pokemonvsdigimon)二、全局可解释性2.1反向寻找理想输入2.2输入
正则化
三
guoxinxin0605
·
2022-06-07 07:21
决策树
机器学习
深度学习
神经网络
人工智能
yolo v4基础知识先导篇
*免责声明:1\此方法仅提供参考2\搬了其他博主的操作方法,以贴上路径.3*场景一:Mish激活函数场景二:Mosaic数据增强场景三:DropBlock
正则化
方法场景四:CIoULoss损失函数场景五
weeksooo
·
2022-06-06 09:24
yolo
深度学习
机器学习
计算机视觉
PYTORCH学习记录_防止过拟合
DropOut以及
正则化
DropOut
正则化
代码修改如下DropOutDropOut是神经网络中一种防止过拟合的手段,其主要的原理是在每一次的训练过程中放置几个神经元,不对进行训练,他的参数不会进行更新
蒟蒻瑟瑟发抖
·
2022-06-04 07:34
机器学习
pytorch
机器学习
神经网络
机器学习防止过拟合方法
过拟合解决方法防止过拟合:earlystopping、扩增训练集、
正则化
、dropoutEarlystoppingEarlystopping便是一种迭代次数截断的方法来防止过拟合的方法,即在模型对训练数据集迭代收敛之前停止迭代来防止过拟合
sunwillz
·
2022-06-04 07:59
机器学习
机器学习
过拟合
预处理--python实现用scikit-learn实现的线性判别分析(LDA)
python实现用scikit-learn实现的线性判别分析(LDA)线性判别分析(LDA)可用于特征提取以提高计算效率和减少在非
正则化
过程中因维数过高而造成的过拟合。
糯米君_
·
2022-06-04 07:12
预处理
python
机器学习
人工智能
算法
防止过拟合的方法
以下是可用于防止过拟合的几种方法:提前停止使用更多数据进行训练特征选择交叉验证数据增强
正则化
提前停止在这种技术中,在模型开始学习模型中的噪声之前暂停训练。
川川菜鸟
·
2022-06-04 07:29
自学机器学习探索路
机器学习
深度学习
数据挖掘
模型泛化 |
正则化
| 权重衰退 | dropout
模型的泛化能力机器学习的目标是发现模式(pattern)。所以这需要确定模型是真正发现了泛化的模式还是简单的记住了数据。先讲个小故事,我们大三那年参加比赛,用机器学习写了个语言识别,虽然准确率很低,只有50%。当时比赛一个评委不信那是机器学习写的,一口咬定我们是写的数据库比对……泛化和记住数据有什么区别呢?就好像给AB两个学生一堆数学资料让他学习。期末考试的时候,如果出原题,两个人都能答100分,
一个爱写代码的小姐姐
·
2022-06-03 07:22
python
深度学习
神经网络
计算机视觉
cnn
python
机器学习算法中的预处理
数据预处理的方法主要包括去除唯一属性、处理缺失值、属性编码、数据标准化
正则化
、特征选择、主成分分析等。
cyqyong
·
2022-06-03 07:42
机器学习
算法
人工智能
机器学习&深度学习相关面试
L1L2正则求precision和recallAUC解释梯度的概念SGD,Momentum,Adagrad,RMSProp,Adam原理优化算法的常用tricksL1不可导的时候该怎么办为什么L1和L2
正则化
可防止过拟合
玦☞
·
2022-06-01 07:22
工作搬砖
概率论
机器学习
深度学习
深度学习与CV教程(6) | 神经网络训练技巧 (上)
本文讲解训练神经网络的核心方法:初始化(激活函数、数据预处理、权重初始化、
正则化
、梯度检查),训练动态(监控学习过程、参数更新、超参数优化)等【对应CS231nLecture6】
ShowMeAI
·
2022-06-01 00:00
深度强化学习-TD3算法原理与代码
深度强化学习-TD3算法原理与代码引言1TD3算法简介2TD3算法原理2.1双重网络2.1.1网络过估计的成因2.1.2双重网络的引入2.2目标策略平滑
正则化
2.3延迟更新3TD3算法更新过程4TD3算法伪代码
indigo love
·
2022-05-31 10:39
深度强化学习
深度学习
人工智能
python
pytorch
算法
深度学习库中优化算法介绍
优化算法的数学原理2.1梯度下降优化算法2.1.1批梯度下降算法(Batchgradientdescent)2.1.2随机梯度下降算法(Stochasticgradientdescent,SGD)2.1.3
小批量
梯度下降算法
Mobtgzhang
·
2022-05-31 07:06
深度学习
深度学习
神经网络
算法
上一页
65
66
67
68
69
70
71
72
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他