E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
小批量正则化
数据常用预处理教程详解(sklearn,numpy,pandas)
为防止过拟合或者其他原因,选择是否要将数据进行
正则化
。在对数据进行初探之后发现效果不佳,可以尝试使用多项式方法,寻
一种tang两种味
·
2022-05-14 07:14
数据分析
机器学习
python
【深度之眼】【神经网络基础知识】:神经网络基础与多元感知机
目录一、人工神经元二、多层感知机三、激活函数四、反向传播五、损失函数六、权值初始化七、
正则化
一、人工神经元人工神经网络:大量神经元以某种连接方式构成的机器学习模型。
雯文闻
·
2022-05-13 07:38
神经网络基础知识
统计学习的分类
Q2.
正则化
项一般形式?Q3.交叉验证方式?Q4.什么是泛化能力?一.基本分类1.1监督学习监督学习(supe
迪菲赫尔曼
·
2022-05-12 07:15
学习笔记
学习
分类
机器学习
sklean和pySpark实现:逻辑回归 LogisticRegression
scikit-learn.sourceforge.net/dev/modules/generated/sklearn.linear_model.LogisticRegression.html参数●penalty:指定(对数)似然函数中加入的
正则化
项
Dawn_www
·
2022-05-12 07:04
#
Spark
逻辑回归(Logistic Regression)
问题描述和转化2、初步思路:找一个线性模型来由X预测Y3、Sigmoid函数(逻辑函数)4、刚刚的线性模型与Sigmoid函数合体5、条件概率6、极大似然估计7、求最小值时的w的两种方法——补充说明三、
正则化
tt丫
·
2022-05-12 07:06
深度学习
逻辑回归
算法
机器学习
数据挖掘
深度学习:网络优化之梯度下降
因此,目前主要从优化和
正则化
两个方面来提高学习效率并得到一个好的网络模型。
DocPark
·
2022-05-11 07:39
深度学习
深度学习
CS231n课后作业 | Assignment 3 Q4 | StyleTransfer-PyTorch 风格迁移
StyleTransfer-PyTorch风格迁移编写:BenVonStyleTransfer设置Setup计算损失ComputingLoss内容损失ContentLoss风格损失StyleLoss整体方差
正则化
BenVon
·
2022-05-11 07:16
cs231n
Stanford
pytorch
机器学习最常用优化之一——梯度下降优化算法综述
目录三种梯度下降优化框架批量梯度下降随机梯度下降
小批量
梯度下降问题与挑战梯度下降优化算法MomentumNesterovacceleratedgradientAdagradAdadeltaRM
Nicole_xiang
·
2022-05-11 07:12
4.2 欠拟合与过拟合
文章目录4.2.1什么是过拟合与欠拟合1.定义2.原因以及解决办法4.2.2
正则化
1.
正则化
类别L2
正则化
(更常用)L1
正则化
2.拓展-原理(了解)问题:训练数据训练的很好啊,误差也不大,为什么在测试集上面有问题呢
Aurora-boo
·
2022-05-11 07:04
python机器学习入门
机器学习
深度学习
人工智能
python机器学习GCN图卷积神经网络原理解析
目录1.图信号处理知识1.1图的拉普拉斯矩阵1.1.1拉普拉斯矩阵的定义及示例1.1.2
正则化
拉普拉斯矩阵1.2图上的傅里叶变换1.3图信号滤波器2.图卷积神经网络2.1数学定义2.2GCN的理解及时间复杂度
·
2022-05-10 16:55
PyTorch学习笔记6——模型细节学习
批量归一化(batchmormalization)批量归一化应用于单个可选层(也可以应用到所有层),其原理如下:在每次训练迭代中,我们首先归一化输入,即通过减去其均值并除以其标准差,其中两者均基于当前
小批量
处理
Moon_Boy_Li
·
2022-05-10 07:21
python
神经网络
Keras深度学习实战(6)——深度学习过拟合问题及解决方法
Keras深度学习实战(6)——深度学习过拟合问题及解决方法0.前言1.过拟合问题介绍2.使用
正则化
解决过拟合问题3.使用Dropout解决过拟合问题小结系列链接0.前言在《神经网络性能优化技术》中,我们经常看到这样的现象
盼小辉丶
·
2022-05-10 07:14
keras
人工智能
深度学习
调参侠——如何对神经网络进行调参
本文涉及的调参目标有:学习率BatchSize网络深度与宽度EpochsL1、L2
正则化
与平衡系数Dropout激活函数LeaningRate学习率是决定网络何时能够找到最优解的重要超参数。
Rulcy
·
2022-05-08 07:36
神经网络
python
深度学习
深度学习调参技巧及各种机器学习知识
面向小数据集构建图像分类模型-Keras中文文档通过下面的方法你可以达到95%以上的正确率:更加强烈的数据提升更加强烈的dropout使用L1和L2正则项(也称为权重衰减)fine-tune更多的卷积块(配合更大的正则)
正则化
详解
UryWu
·
2022-05-08 07:47
深度学习
机器学习
概率论
深度学习
机器学习
神经网络浅学
分为以下三步走神经网络与多层感知机:包括基础知识,激活函数、反向传播、损失函数、权值初始化和
正则化
卷积神经网路:统治图像领域的圣经网络结构,发展历史、卷积操作和池化操作循环神经网路:统治序列数据的神经网络结构
carrymybaby
·
2022-05-08 07:40
自主学习
神经网络
深度学习
rnn
深度学习激活函数与
正则化
问题
深度学习激活函数与
正则化
问题–潘登同学的深度学习笔记文章目录深度学习激活函数与
正则化
问题--潘登同学的深度学习笔记梯度消失问题(VanishingGradients)Relu的缺点其他Relu变形参数初始化问题
PD我是你的真爱粉
·
2022-05-07 07:49
机器学习
深度学习
tensorflow
rnn
【动手学深度学习v2笔记】线性回归 + 基础优化算法
线性回归+基础优化算法1线性回归1.1一个简单模型1.2线性模型1.3平方损失1.4训练数据1.5损失函数1.6显式解2基础优化算法2.1梯度下降2.2选择学习率2.3
小批量
随机梯度下降2.4选择批量大小
南浔Pyer
·
2022-05-07 07:32
Python深度学习
深度学习
线性回归
优化算法
python
浅谈神经网络
浅谈神经网络神经网络基础入门知识神经网络简介多层神经网络相比逻辑回归的优势线性可分数据线性不可分数据神经网络算法原理实例——二层神经网络的构建流程神经网络算法学习中遇到的疑惑改善深层神经网络L2
正则化
Droupout
吾即小灾变
·
2022-05-07 07:14
深度学习
神经网络
深度学习
浅析线性神经网络——线性回归问题
目录一.线性回归1.1回归(regression):1.2线性回归的基本元素:1.3线性模型:1.4损失函数二.基础优化算法2.1梯度下降2.2
小批量
随机梯度下降三.矢量化加速四.正态分布与平方损失总结一
KUUUD
·
2022-05-07 07:29
神经网络
机器学习
深度学习
神经网络
python
人工智能
经验分享
学习
深度学习从入门到精通——yolov4
BoF:能够提高精度而不增加推断时间比如数据增广的方法:图像几何变换、Cutout、gridmask等,网络
正则化
的方法:Dropout、Dropblock等,类别不平衡的处理方法,难例挖掘方法,损失函数的设计等
小陈phd
·
2022-05-05 07:28
深度学习
计算机视觉
机器学习
深度学习
练习2:逻辑回归Python
还将通过将
正则化
加入训练算法,来提高算法的鲁棒性,并用更复杂的情形来测试模型算法。
Aaron_Liu0730
·
2022-05-04 07:47
机器学习
机器学习
sklearn
tensorflow
回归
【读点论文】ViTGAN: Training GANs with Vision Transformers 将视觉transformer和gan结合起来
本文观察到,现有的GANs
正则化
方法与自注意力的交互作用很差,导致训练过程中严重的不稳定
羞儿
·
2022-05-04 07:42
论文笔记
深度学习
计算机视觉
人工智能
GAN
ViTGAN: Training GANs with Vision Transformers阅读笔记
面对的问题:(1)GAN的
正则化
方法与注意力机制的交互很差,导致训练中稳定性不足(2)在鉴别器训练的后期,对抗训练经常受到高方差梯度(或尖峰梯度)的阻碍。
莫问前程学无止境
·
2022-05-04 07:15
论文阅读
深度学习
计算机视觉
transformer
西瓜书--第六章.支持向量机(SVM)
函数间隔:几何间隔:3、间隔最大化二、对偶问题拉格朗日乘子法:三、核函数1、线性不可分2、核函数四、软间隔与
正则化
软间隔(含线性支持向量机):五、支持向量回归六、核方法1、核方法2、非线性支持向量
啊四战斗霸
·
2022-05-02 07:33
机器学习
吴恩达机器学习作业二:利用逻辑回归模型预测一个学生是否被学校录取 ,二分类问题(python实现)
吴恩达机器学习作业二:利用逻辑回归模型预测一个学生是否被学校录取(python实现)该文是针对吴恩达机器学习逻辑回归章节作业任务一,利用逻辑回归模型预测一个学生是否被学校录取,区别于任务二中利用
正则化
逻辑回归模型预测来自制造工厂的微芯片是否通过质量保证见博客
墨玲珑
·
2022-05-02 07:00
机器学习
python
python
逻辑回归
分类
机器学习
YOLO系列改进
下采样层多,物体特征不够精细YOLOv2BACKBONEDarknet-19改进BatchNormalization加入BatchNormalization,消除对
正则化
的
洛北辰南
·
2022-04-30 09:25
深度学习
YOLO
改进
入门生成对抗网络的补习
“本文主要介绍了近年来GAN(生成对抗网络)在分布差异度量,IPM与
正则化
,对偶学习,条件与控制,提高分辨率,评价指标等问题上的发展情况和代表性工作,希望对之前没有跟进GAN相关工作的同学有所帮助~”作者
人工智能与算法学习
·
2022-04-29 07:53
入门GAN的补习
本文主要介绍了近年来GAN(生成对抗网络)在分布差异度量,IPM与
正则化
,对偶学习,条件与控制,提高分辨率,评价指标等问题上的发展情况和代表性工作,希望对之前没有跟进GAN相关工作的同学有所帮助~”作者
风度78
·
2022-04-29 07:24
计算机视觉与深度学习(7)
blog.csdn.net/han_xiaoyang/article/details/50451460声明:版权所有,转载请联系作者并注明出处1.引言上一节我们讲完了各种激励函数的优缺点和选择,以及网络的大小以及
正则化
对神经网络的影响
普通网友
·
2022-04-29 07:20
计算机视觉与深度学习
函数
计算机视觉
深度学习
神经网络
对抗攻击与防御 (2):对抗样本的反制策略
随机梯度(stochastic/randomizedgradients)2..4梯度爆炸和消失(exploding&vanishinggradients)2.5梯度混淆或掩盖方法不安全3健壮性优化3.1
正则化
方法
因吉
·
2022-04-28 13:13
#
信息安全
对抗攻击与防御
对抗样本反制
因吉与皮卡墨
深度学习训练之optimizer优化器(BGD、SGD、MBGD、SGDM、NAG、AdaGrad、AdaDelta、Adam)的最全系统详解
文章目录1、BGD(批量梯度下降)2、SGD(随机梯度下降)2.1、SGD导致的Zigzag现象3、MBGD(
小批量
梯度下降)3.1BGD、SGD、MBGD的比较4、SGDM5、NAG6、AdaGrad
全息数据
·
2022-04-28 13:41
图像分割
深度学习
图像处理
深度学习
算法
「深度学习一遍过」必修26:机器学习与深度学习基础知识汇总
专栏地址:「深度学习一遍过」必修篇目录1Boosting与Bagging2卷积层、激活层、池化层作用3卷积神经网络特性4
正则化
相关知识5评测指标相关知识6参数初始化方法7归一化相关知识8最优化方法相关知识
荣仔!最靓的仔!
·
2022-04-28 07:40
「深度学习一遍过」必修篇
深度学习
机器学习
神经网络
【车间订单拣选优化】基于遗传优化的车间订单拣选优化matlab仿真
汽车生产需要进行上千个零件的组装,而主机厂采用柔性生产,对于每种零部件的需求呈现
小批量
,多频次的特点,而对于服务于主机厂的区域分拨中心,需要对主机厂的订单进行拣选配送,完成需求的响应。
fpga&matlab
·
2022-04-27 09:56
MATLAB
板块7:优化类问题
GA优化
车间订单拣选优化
AI深度学习
损失函数:1、绝对值损失函数2、平方损失函数(回归任务)3、指数损失函数4、交叉熵损失函数(分类任务)
正则化
:L1
正则化
是指权值向量中各个元素的绝对值之和,可以实现让参数矩阵稀疏,让参数稀疏的好处,可以实现对特征的选择
audiocool
·
2022-04-27 07:20
python
吴恩达机器学习笔记6——logistic回归加入正则项
一、梯度下降算法时logistic回归加入
正则化
logistic回归加入正则项:【注意】看起来梯度下降的公式与线性回归的一样,但其实这里的h(x)与线性回归里的不同二、更高级的优化算法的
正则化
logistic
babychrislee3
·
2022-04-26 07:00
机器学习
机器学习
逻辑回归
【九问九答】你真的会优化网络吗?
(1)
小批量
梯度下降(Mini-BatchGradientDescent).为什么要使用
小批量
梯度下降法?影响
小批量
梯度下降法的主要因素有什么?
allein_STR
·
2022-04-25 07:08
Deep
learning
python
深度学习
网络优化
ViT模型关联的Layer Normalization研读(一)初学者
LayerNormalization利用神经元输入的总和分布在一个
小批量
的训练案例上来计算均值和方差,然后用这些均值和方差来规范化每个训练案例上该神经元
踏实钻研
·
2022-04-24 07:25
python
人工智能
nlp
(二)深度学习基础 -- 6 正向传播、反向传播和计算图
6.正向传播、反向传播和计算图在前几节中,使用了
小批量
随机梯度下降的优化算法来训练模型。实现中,只提供了模型的正向传播(Forwardpropagation)的计算。
Fiona-Dong
·
2022-04-24 07:23
动手学深度学习笔记(五)——softmax回归实现
文章目录1.1图像分类数据集1.1.1读取数据集1.1.2读取
小批量
1.1.3整合所有组件1.2初始化模型参数1.3损失函数1.4优化算法1.5训练1.1图像分类数据集MNIST数据集是图像分类中广泛使用的数据集之一
.别拖至春天.
·
2022-04-22 12:52
动手学深度学习
深度学习
回归
python
动手学深度学习笔记(四) ——分类问题(softmax回归)
文章目录1.1.1分类问题1.1.2网络架构1.1.3softmax运算1.1.4
小批量
样本的矢量化1.1.5损失函数1.1.5.1对数似然1.1.5.2softmax及其导数1.1.5.3交叉熵损
.别拖至春天.
·
2022-04-22 12:51
动手学深度学习
分类
深度学习
回归
面试总结之特征工程
特征工程有哪些数据预处理1.处理缺失值2.图片数据扩充3.处理异常值4.处理类别不平衡问题特征缩放1.归一化2.
正则化
特征编码1.序号编码2.独热编码3.二进制编码4.离散化特征选择1.过
DCGJ666
·
2022-04-18 07:07
Pytorch复习
深度学习
深度学习教程 | 网络优化:超参数调优、
正则化
、批归一化和程序框架
作者:韩信子@ShowMeAI教程地址:http://www.showmeai.tech/tutorials/35本文地址:http://www.showmeai.tech/article-detail/218声明:版权所有,转载请联系平台与作者并注明出处收藏ShowMeAI查看更多精彩内容本系列为吴恩达老师《深度学习专项课程(DeepLearningSpecialization)》学习与总结整理
ShowMeAI
·
2022-04-16 11:33
深度学习
吴恩达专项课程
·
全套笔记解读
深度学习
神经网络
网络优化
超参数调优
吴恩达
《python机器学习及实践-从零开始通往kaggle竞赛之路》——代码整理
2.1.1.1线性分类器2.1.1.2支持向量机2.1.1.3朴素贝叶斯2.1.1.4K近邻2.1.1.5&2.1.1.6决策树&集成模型3.1模型实用技巧3.1.1特征提升3.1.1.1特征抽取3.1.2模型
正则化
猴子姑娘呀
·
2022-04-15 07:27
机器学习学习笔记【更新中】
机器学习
深度学习教程 | 网络优化:超参数调优、
正则化
、批归一化和程序框架
作者:韩信子@ShowMeAI教程地址:http://www.showmeai.tech/tutorials/35本文地址:http://www.showmeai.tech/article-detail/218声明:版权所有,转载请联系平台与作者并注明出处收藏ShowMeAI查看更多精彩内容本系列为吴恩达老师《深度学习专项课程(DeepLearningSpecialization)》学习与总结整理
·
2022-04-14 23:38
关于yolov5的一些说明(txt文件、训练结果分析等)
训练结果不好的原因:1.欠拟合:在训练集上表现很差,测试集上表现也很差的现象可能是欠拟合导致的,是因为泛化能力太强,误识别率较高解决办法:1)增加数据集的正样本数,增加主要特征的样本数量2)增加训练次数3)减小
正则化
参数
Faster--YOLO
·
2022-04-14 16:11
机器学习
深度学习
人工智能
正则化
DropPath/drop_path用法示例(Python实现)
DropPath/drop_path是一种
正则化
手段,其效果是将深度学习模型中的多分支结构随机”删除“,python中实现如下所示:defdrop_path(x,drop_prob:float=0.,training
·
2022-04-14 08:56
[二十二]深度学习Pytorch-
正则化
Regularization之dropout
0.往期内容[一]深度学习Pytorch-张量定义与张量创建[二]深度学习Pytorch-张量的操作:拼接、切分、索引和变换[三]深度学习Pytorch-张量数学运算[四]深度学习Pytorch-线性回归[五]深度学习Pytorch-计算图与动态图机制[六]深度学习Pytorch-autograd与逻辑回归[七]深度学习Pytorch-DataLoader与Dataset(含人民币二分类实战)[八
yanzhiwen2
·
2022-04-14 07:12
深度学习Pyrotch
pytorch
深度学习
python
人工智能
机器学习
二、机器学习基础1
机器学习中常见算法回归算法、基于实例的算法、
正则化
算法、决策树学习、贝叶斯算法、基于核的算法、聚类算法、关联规则学习、人工神经网络、深度学习、降低维度算法、集成算法。
满满myno
·
2022-04-14 07:33
深度学习
深度学习
机器学习
深度学习综述(译)
本文参考了RecentAdvancesinDeepLearning:AnOverview,并简单的翻译了一下,供自己学习使用,该论文列举了最近几年深度学习的重要研究成果,从方法、架构、
正则化
以及技术方面进行了概述
Tiám青年
·
2022-04-13 07:25
深度学习
计算机视觉
正则化
最小二乘法——神经网络与机器学习笔记2
AtrABATC=CAB+CTABT∇θJ=⎡⎣⎢⎢⎢⎢⎢⎢⎢∂J∂θ0∂J∂θ1⋮∂J∂θn⎤⎦⎥⎥⎥⎥⎥⎥⎥∇Af(A)=⎡⎣⎢⎢⎢⎢∂f∂A11⋮∂A∂An1⋯⋱⋯∂A∂A1n⋮∂A∂Ann⎤⎦⎥⎥⎥⎥
正则化
最小二乘法推
Reader2号
·
2022-04-13 07:36
machine
learning
正则化最小二乘法
最小二乘法
机器学习
线性规划
上一页
67
68
69
70
71
72
73
74
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他