E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
《深度学习笔记》
深度学习笔记
------现阶段的目标检测器结构解析(Neck[FPN,PANet,Bi-FPN],Head[rpn,yolo...])
目录1.概述2.经典Neck的回顾2.1FPN(特征金字塔结构)2.2PANet2.2.1创建了自下而上的路径增强2.2.2AdaptiveFeaturePooling2.3Bi-FPN及FPN的演进ASFF,NAS-FPN,Recursive-FPN)3典型head回顾3.1RPN(RegionProposalNetwor)3.1.1RPN的运作机制3.1.2RPN详解3.2无融合SSD类型的h
YOULANSHENGMENG
·
2022-11-22 19:32
深度学习基础知识
目标检测
深度学习
计算机视觉
(七)
深度学习笔记
|pytorch官方demo(LeNet-5)下
一、前言此前我们对LeNet进行讲解https://blog.csdn.net/weixin_45579930/article/details/112277024并对我们接下来要使用的model.py进行讲解https://blog.csdn.net/weixin_45579930/article/details/112323167下面有需要用到的代码我已经将其放入我的githubhttps://
Viviana-0
·
2022-11-22 18:14
深度学习
python
神经网络
机器学习
人工智能
深度学习
pycharm动手学
深度学习笔记
-01预备知识
笔记参考:B站橘子CSDNpycharm版(简略版笔记)核心的不懂的地方参考沐神的课程主页本地python环境python3.8改成了深度学习专用的文章目录预备知识数据操作和数据预处理线性代数微积分自动求导预备知识数据操作和数据预处理dim啥意思查了一下torch.cat((x,y),dim=0):张量X,Y按照列堆起来torch.cat((x,y),dim=1):张量X,Y按照行并排起来广播机制
东方-教育技术博主
·
2022-11-22 18:07
机器学习之路
深度学习
数据分析
【机器学习】《动手学深度学习 PyTorch版》李沐
深度学习笔记
(批量归一化)
批量归一化(BatchNormalization)1.引言当神经网络比较深的时候,数据在下边损失函数在上边,在梯度自动求导,forward是数据从下一点点往上走,计算backWard是从上往下计算(这里有个问题,梯度在上边的时候会比较大,越往下边就越容易变小),因为上边的梯度比较大,那么每次上边的梯度都会不断去更新,下边的梯度比较小,所以权重的更新的就比较小,上边的会很快收敛,下边的会很慢。那么就
Jul7_LYY
·
2022-11-22 18:20
深度学习
pytorch
【机器学习】《动手学深度学习 PyTorch版》李沐
深度学习笔记
(VGG、NIN)
1.vgg引言alexnet比lenet更深更大?能带来更好的精度?能不能更深更大?(1)更多的全连接层【太贵】(2)更多的卷积层(3)讲卷积层组合成块2.vgg(1)vgg16包括3个全连接+13个卷积层(2)CNN感受野计算公式:F(i)=(F(i+1)-1)stride+ksize【概念公式看下方】(3)亮点:通过堆叠三个33卷积核来代替5*5卷积核需要的参数【减少参数】(4)Vgg16网络
Jul7_LYY
·
2022-11-22 18:50
深度学习
pytorch
【机器学习】《动手学深度学习 PyTorch版》李沐
深度学习笔记
(googlenet)
googlenet注意:每个分支所得的特征矩阵高和宽必须相同1.inception块的引入(1)alexnet引入ReLu(缓解梯度消失),隐层全连接层后加入了丢弃层(2)vgg出现卷积层组合成块(通过堆叠三个33卷积核来代替55卷积核需要的参数)(3)nin模型出行1*1卷积,丢弃全连接层(4)googlenet全部结合,inception块,从四个路径从不同层面抽取信息,然后在输出通道维合并(
Jul7_LYY
·
2022-11-22 18:37
深度学习
pytorch
(一)逻辑回归及其代价函数 --- 吴恩达
深度学习笔记
逻辑回归—适用于二分类问题使用逻辑回归算法会得到的输出标签y,y在监督问题中全是0或者1,因此这是一种针对二分类问题的算法。给定的输入特征向量x和一幅图像对应,我们希望识别这是否是一张猫的图片。因此我们想要一种算法能够输出一个预测值,我们称之为y帽(yhaty^\widehat{y}y),这代表对真是标签Y的估计。形式上讲yhat是当给定特定输入特征x时,预测标签y为1的概率。换种说法就是当x是一
奕星星奕
·
2022-11-22 11:07
图像处理
逻辑回归
深度学习
深度学习笔记
--权重文件、模型参数和预训练模型的使用
目录1--打印权重文件参数2--打印模型参数3--使用权重文件参数更新模型的参数4--将模型部分参数固定(不进行梯度下降)5--参考1--打印权重文件参数importtorchweights_files='./test.pt'#权重文件路径weights=torch.load(weights_files)#加载权重文件fork,vinweights.items():#key,valueprint(
憨豆的小泰迪
·
2022-11-22 07:55
深度学习
人工智能
python
动手
深度学习笔记
(九)3.2. 线性回归的从零开始实现
动手
深度学习笔记
(九)3.2.线性回归的从零开始实现3.线性神经网络3.2.线性回归的从零开始实现3.2.1.生成数据集3.2.2.读取数据集3.2.3.初始化模型参数3.2.4.定义模型3.2.5.定义损失函数
落花逐流水
·
2022-11-22 05:42
pytorch实践
pytorch
HALCON 21.11:
深度学习笔记
---分类(10)
HALCON21.11:
深度学习笔记
---分类(10)HALCON21.11.0.0中,实现了深度学习方法。本章介绍了如何在训练和推理阶段使用基于深度学习的分类。
机器视觉001
·
2022-11-22 05:01
HALCON
Halcon
21
AI
HALCON 21.11:
深度学习笔记
---语义分割/边缘提取(12)
HALCON21.11:
深度学习笔记
---语义分割/边缘提取(12)HALCON21.11.0.0中,实现了深度学习方法。本章介绍了如何使用基于深度学习的语义分割,包括训练和推理阶段。
机器视觉001
·
2022-11-22 05:01
HALCON
Halcon
21
AI
HALCON 21.11:
深度学习笔记
---设置超参数(5)
HALCON21.11:
深度学习笔记
---设置超参数(5)HALCON21.11.0.0中,实现了深度学习方法。关于超参数的有关设置内容如下:不同的DL方法是为不同的任务设计的,它们的构建方式也不同。
机器视觉001
·
2022-11-22 05:00
HALCON
Halcon
21
AI
HALCON 21.11:
深度学习笔记
---网络和训练过程(4)
HALCON21.11:
深度学习笔记
---网络和训练过程(4)HALCON21.11.0.0中,实现了深度学习方法。关于网络和训练过程如下:在深度学习中,任务是通过网络发送输入图像来执行的。
机器视觉001
·
2022-11-22 05:30
HALCON
Halcon
21
AI
深度学习笔记
——波士顿房价预测
初次接触深度学习,记录一点思考和想法,请大家多多指正。首先是工具包的导入pycharm这里我用到了numpy科学计算库,json轻量级的数据交换格式包,以及matplotlib绘图工具包importnumpyasnpimportjsonimportmatplotlib.pyplotaspltfrommpl_toolkits.mplot3dimportAxes3D首先我们的目的是用13个有关因素预测
打代码的大白鲨
·
2022-11-22 01:00
深度学习
python
深度学习与卷积神经网络(直观理解)
附上链接:凌风探梅的卷积神经网络(CNN)新手指南http://blog.csdn.net/real_myth/article/details/52273930;
深度学习笔记
整理系列:http://blog.csdn.net
伊伊note
·
2022-11-22 01:55
深度学习
caffe
深度学习
神经网络
cnn
图像分类
滤波器
深度学习笔记
卷积神经网络CNN
卷积神经网络基本框架上图为LeCunY,BottouL,BengioY,etal.Gradient-basedlearningappliedtodocumentrecognition[J].ProceedingsoftheIEEE,1998,86(11):2278-2324.中提出的-LeNet-5的框架,后续的卷积神经网络基本都是在此基础上进行改动和扩展的。输入图像会经过卷积层、池化层和全连接层
应天๑
·
2022-11-22 01:01
数字图像处理
深度学习笔记
图像处理
计算机视觉
深度学习
人工智能
卷积神经网络
向毕业妥协系列之
深度学习笔记
(三)DL的实用层面(上)
目录一.训练_开发_测试集二.方差与偏差三.正则化四.Dropout正则化五.其他正则化方法本篇文章大部分又是在ML中学过的,除了Dropout正则化及之后的部分。一.训练_开发_测试集在配置训练、验证和测试数据集的过程中做出正确决策会在很大程度上帮助大家创建高效的神经网络。训练神经网络时,我们需要做出很多决策,例如:神经网络分多少层每层含有多少个隐藏单元学习速率是多少各层采用哪些激活函数在机器学
深海鱼肝油ya
·
2022-11-21 20:10
#
深度学习
深度学习
Dropout正则化
偏差
方差
验证集和测试集
深度学习笔记
—— 多层感知机
感知机是一个二分类模型,求解算法等价于使用批量大小为1的梯度下降。感知机的缺点:不能解决XOR问题多层感知机:一次解决不了的问题,可以先学习一个简单函数,再学习一个简单函数,然后用另外一个函数组合两个函数为什么需要非线性激活函数:如果激活函数是本身,那么输出仍然会是一个线性函数,等价于一个单层的感知机ReLU优点在于简单输出是不用激活函数的,激活函数主要是为了避免层数的塌陷,最后一层不需要激活函数
Whisper_yl
·
2022-11-21 19:21
#
深度学习
深度学习
人工智能
深度学习笔记
00.1工具的使用GoogleColab关于GoogleColab的使用基础能力:微积分,线性代数,概率编程:pythonreadandmodifythesamplecodes用numpy,matplotlib.硬件:GoogleColab使用即可。反向传播算法的理解0.2python的使用0.2.1常用操作符双星号(**)2**3:2的3次幂指数逻辑操作符and:两者为真才真or:一个为真即为真
dhuwangDHU
·
2022-11-21 14:46
深度学习
python
numpy
深度学习笔记
(十一)--读李宏毅《1天搞懂深度学习》
先引用他人关于李宏毅教授关于深度学习导论的PPT,应该非常容易入门。《1天搞懂深度学习》,300多页的ppt,台湾李宏毅教授写的,非常棒。不夸张地说,是我看过最系统,也最通俗易懂的,关于深度学习的文章。“具体链接如下:百度云链接:https://pan.baidu.com/s/1os1QHXy3uE0C-t7ScbIn8A密码:qwvj废话少说,先上干货,整个PPT的思维导图如下:深度学习概论介绍
ren_dong1996
·
2022-11-21 13:48
深度学习笔记
DL入门
李宏毅
时序数据,图像数据,
深度学习笔记
ConvLSTM[深度学习从入门到女装]FCN+RNNfor3Dimagesegmentationpytorch时空数据处理3——ConvLSTM介绍及应用LSTM以及ConvLSTM全面解析RNN,LSTM,Seq2Seq,Attention注意力机制基于深度学习的13种通用图像分类模型及其实现paper:CombiningFullyConvolutionalandRecurrentNeural
迷路在代码中
·
2022-11-21 12:39
python
影像资料
算法
深度学习
人工智能
深度学习笔记
9 循环神经网络(RNN、LSTM)
目录1.循环神经网络概述2.RNN多结构详解2.1one-to-one2.2n-to-n2.3one-to-n2.4n-to-one2.5Encoder-Decoder(n-to-m)3.RNN前向传播4.RNN反向传播5.LSTM长程依赖问题5.1为什么提出LSTM5.2LSTM概念与计算过程5.3LSTM网络详解(简书博主)6.门控循环单元(GRU)网络7.深层循环神经网络8.双向循环神经网络
李同学_道阻且行
·
2022-11-21 11:19
深度学习笔记(理论)
深度学习
rnn
lstm
小土堆
深度学习笔记
常见的引入库的总结。(1)torch.utils:工具类;效用;实用工具;实用菜单;fromtorch.utils.dataimportDataLoaderfromtorch.utils.dataimportDatasetfromtorch.utils.tensorboardimportDataLoader(2)PIL(PythonImageLibrary;Pillow)导包fromPILimpo
knife646
·
2022-11-21 09:05
深度学习
pytorch
人工智能
1024程序员节
【机器学习】《动手学深度学习 PyTorch版》李沐
深度学习笔记
(Alexnet)
AlexNet一.alexnet与lenet的区别二.主要区别(1)激活函数从sigmoid变成ReLu(缓解梯度消失)(2)隐层全连接层后加入了丢弃层(3)数据增强(图像的随机翻转)三.详细图解四.一些小问题1.LRN没有什么用,在后续的网络中就没有再使用过了2.必须是两个,砍掉一个效果会变差3.这个resize不会直接把图像变得非常的小,它会先把图片进行等比缩减,在中间扣一块出来或者抠几块,所
Jul7_LYY
·
2022-11-21 04:13
深度学习
pytorch
【机器学习】《动手学深度学习 PyTorch版》李沐
深度学习笔记
(神经网络卷积池化)
第一章卷积层1.对全连接层使用平移不变性(核不变)和局部性得到卷积层2.卷积层将输入和卷积核进行交叉相关(卷积其实是交叉相关的180°翻转),加上偏移后得到输出3.核矩阵和偏移是可学习的参数(核也在动态更新)4.核矩阵的大小是超参数5.全连接层权重会随着输入的变大会变得超级大,卷积不会产生这个问题(含有全连接层的网络输入数据的大小应该是固定的,这是因为全连接层和前面一层的连接的参数数量需要事先确定
Jul7_LYY
·
2022-11-21 04:43
深度学习
神经网络
2021动手学
深度学习笔记
pytorch版本--2.1预备知识
深度学习小白一枚,最近在看李沐的动手学深度学习(2021版本),一些代码感觉看不太懂,于是写个博客记录下代码的一些个人理解,也方便后续复习。2.1数据操作2.1.1入门importtorchx=torch.arange(12)x#结果:tensor([0,1,2,3,4,5,6,7,8,9,10,11])这里的张量我理解的就是一个’数组‘,一维是向量,二维是矩阵。torch.arange(12)创
生而无畏,战至终章
·
2022-11-21 04:12
深度学习
神经网络
机器学习
【机器学习】《动手学深度学习 PyTorch版》李沐
深度学习笔记
第十一章模型选择+过拟合和欠拟合1.区分两种误差2.分清两种重要的数据集3.K-则交叉验证4.欠拟合和过拟合解决办法:(欠拟合)1.获得更多的训练数据2.降维3.正则化:保留特征、减少参数大小(过拟合)1.添加新特征2.增加模型复杂度3.减小正则化系数5.估计模型容量全连接层如何计算参数的个数:h=wx+b(h充当下一次的x每一层的b只有1个)6.总结7.一些小问题:1.Svm的缺点:不适用于大数
Jul7_LYY
·
2022-11-21 04:35
深度学习
pytorch
Pyotorch自定义损失函数
1.损失函数知识总结参考:
深度学习笔记
总结_GoAI的博客-CSDN博客PyTorch笔记.常见的PyTorch损失函数-知乎Pytorch神经网络实战学习笔记_10神经网络模块中的损失函数_LiBiGor
GoAI
·
2022-11-21 02:24
深度学习
Pytorch
pytorch
深度学习
机器学习
深度学习笔记
一、数值微分df(x)dx=limh→0f(x+h)−f(x)h\frac{\mathrm{d}f(x)}{\mathrm{d}x}=\lim_{h\to0}\frac{f(x+h)-f(x)}{h}dxdf(x)=h→0limhf(x+h)−f(x)求导公式表示瞬间的变化量,在python中可以定义为defnumerical_diff(f,x):h=10e-50return(f(x+h)-f(
Release 、
·
2022-11-21 01:01
深度学习
python
计算机视觉
深度学习笔记
-self-attention
输入:不确定长度的向量。例如:A.文字处理,不同长度的句子,对词汇的向量表示可采用one-hotEncoding,wordembedding(会存在类形似性),如下图:B.一段声音信号是一排向量,一段长度(25ms)定义为一个window,定义为一个向量即一个frame,一个window右移一点长度(10ms)得到一个新的向量(frame)C.socialnetwork,分子输出:问题:之前确定向
財鸟
·
2022-11-21 00:47
深度学习
深度学习
人工智能
transformer
李宏毅
深度学习笔记
打卡P1-P2
李宏毅
深度学习笔记
打卡P1-P2机器学习介绍人工智慧是想要达成的目标,机器学习是实现人工智能的手段,深度学习是机器学习的一部分。
wkywcd
·
2022-11-20 23:14
机器学习
(九)
深度学习笔记
| AlexNet网络结构详解
一、前言AlexNet是2012年ISLVRC2012(ImageNetLargeScaleVisualRecognitionChallenge)竞赛的冠军网络,分类准确率由传统的70%+提升到80%+。它是由Hinton和他的学生AlexKrizheveky设计的。也就是在那年后,深度学习开始迅速发展。二、AlexNet网络优点首次使用GPU进行网络加速训练使用了ReLU激活函数,而不是传统的S
Viviana-0
·
2022-11-20 22:13
深度学习
网络
深度学习
alexnet模型
自然语言处理
pytorch
李宏毅
深度学习笔记
06(Logistic Regression)
Step1:FunctionSetIncludingalldifferentwandbStep2:GoodnessofaFunction(决定一个function的好坏)假设trainingdata的数据如下图所示:则probability就是如下:crossentropy(与线性分析的时候的误差类似的东西):Step3:FindthebestFunction(Logisticregression
稀里糊涂的小楠~
·
2022-11-20 22:02
笔记
深度学习
向毕业妥协系列之
深度学习笔记
(二)深层神经网络
为什么直接去看
深度学习笔记
吧。时间紧任务重不多说。六.参数VS超参数
深海鱼肝油ya
·
2022-11-20 22:54
#
深度学习
深度学习
前向和反向传播
深层神经网络
超参数
李宏毅2020机器学习
深度学习笔记
P11 Logistic Regression
LogisticRegressionStep1:FunctionSet目的:要找几率Pw,b(C1∣x)Pw,b(C_1|x)Pw,b(C1∣x)若Pw,b(C1∣x)≥0.5Pw,b(C_1|x)\ge0.5Pw,b(C1∣x)≥0.5,输出为C1;若Pw,b(C1∣x)<0.5Pw,b(C_1|x)\lt0.5Pw,b(C1∣x)<0.5,输出为C2。若要用高斯分布,Pw,b(C1∣x)=σ(
shunjian666
·
2022-11-20 22:54
深度学习
逻辑回归
人工智能
python
深度学习笔记
Week4
1、为什么要用卷积来学习呢?图像都是用矩阵来表达的,学习的本质就是要抽象出特征,以边缘检测为例,它就是识别数字图像中亮度变化明显的点,这些点连接起来往往是物体的边缘。所有基于卷积神经网络来学习的图像算法,都是通过不断的卷积来进行特征的抽象,直到实现网络的目标。mnist手写数字识别importtorchimportmatplotlib.pyplotasplt#利用DataLoader来加载自己的数
[email protected]
·
2022-11-20 21:26
深度学习笔记
深度学习
计算机视觉
神经网络
深度学习笔记
Week5
池化(pooling)层LeNet深度卷积神经网络(AlexNet)自回归模型(AutoregressiveModel)马尔科夫模型(MarkovModel)池化(pooling)层它具有双重目的:降低卷积层对位置的敏感性,同时降低对空间降采样表示的敏感性。池化窗口从输入张量的左上角开始,从左往右、从上往下的在输入张量内滑动。在池化窗口到达的每个位置,它计算该窗口中输入子张量的最大值或平均值。即最
[email protected]
·
2022-11-20 21:26
深度学习笔记
深度学习
cnn
神经网络
【动手学
深度学习笔记
】一.数据操作
文章目录1.张量的概念1.1.torch.arange(12)1.2.reshape(3,4)1.3.torch.zeros(2,3,4)1.4.torch.ones((2,3,4))1.5.torch.randn(2,3,4)1.6.torch.tensor([[2,3,4],[3,4,5]])2.运算符3.广播机制1.张量的概念概念:Pytorch或者Tensorflow中的TensorTen
Allenpandas
·
2022-11-20 20:34
动手学深度学习笔记
深度学习
Pytorch
Python3
Tensor
Tensorflow
(四)
深度学习笔记
|卷积神经网络(CNN)
一、什么是卷积神经网络卷积神经网络(ConvolutionalNeuralNetwork,CNN)又叫卷积网络(ConvolutionalNetwork),是一种专门用来处理具有类似网格结构的数据的神经网络。卷积神经网络一词中的卷积是一种特殊的线性运算。卷积网络是指那些至少在网络的一层中使用卷积运算来代替一般的矩阵乘法的神经网络。典型应用场景:图像识别、语音识别等。二、卷积神经网络的描述2.1.人
Viviana-0
·
2022-11-20 19:00
深度学习
神经网络
卷积
python
计算机视觉
算法
PyTorch
深度学习笔记
(一)PyTorch环境配置及安装
课程学习笔记,课程链接PyTorch环境配置OS:Windows101、Anaconda安装Anaconda,集成的,应用于科学分析的,大量packag的软件。代码中,若函数为工具,Anaconda则为工具包。AnacondaInstallersandPackages链接为其历史版本的收录,点击左下角的安装包,找到相应的版本。其中Anaconda2/3表示python2/3的版本,5.3.x表示版
小于同学饿了
·
2022-11-20 14:52
PyTorch
pytorch
深度学习
python
向毕业妥协系列之
深度学习笔记
(一)浅层神经网络
计算图(反向传播求导的几个实例)1.普通式子反向传播求导2.逻辑回归中的梯度下降3.m个样本的梯度下降三.向量化四.python广播五.激活函数六.随机初始化深度学习系列的文章也可以结合下面的笔记来看:
深度学习笔记
深海鱼肝油ya
·
2022-11-20 13:35
#
深度学习
深度学习
神经网络
向量化
反向传播
激活函数
swin-Transformer论文详解
swin-Transformer论文详解–潘登同学的
深度学习笔记
文章目录swin-Transformer论文详解--潘登同学的
深度学习笔记
前言网络架构SwintransformerBlock巧妙的Mask
PD我是你的真爱粉
·
2022-11-20 12:42
Tensorflow
transformer
人工智能
深度学习
深度学习笔记
(二)
计算机视觉:人类肉眼识别的错误率大概在5%。到2016年的时候,计算机视觉中,用深度学习网络达到的错误率已经远低于人类。卷积神经网络(CNN)1.应用领域神经网络和卷积神经网络都是用来做特征提取的。传统神经网络在特征提取上有一些问题:第一点,权重参数矩阵特别大;第二点,过拟合风险比较高。卷积神经网络一定程度上就是要解决这些问题。超分辨率重构:怎么样重构一张图像,怎么样把一张图片做得更清晰一些?通过
邱宇-
·
2022-11-20 11:38
深度学习
人工智能
计算机视觉
深度学习笔记
(三)
几个经典的网络架构:1.AlexnetAlexnet是2012年在比赛中夺冠的一个网络。它有几个缺点:(1)11x11的filter,大刀阔斧的提取特征,这样是不好的,卷积核一般是越小越好(2)步长为4,过大;(3)没有加pad填充。Alexnet是一个8层的网络,有5层的卷积和3层的全连接。2.VggVgg是一个2014年出现的网络,它有不同的几个版本,下图中红色框起来的是比较主流的一个版本。它
邱宇-
·
2022-11-20 11:38
深度学习
计算机视觉
人工智能
深度学习笔记
(一)
计算机视觉:图像表示:计算机眼中的图像一张图像被表示成三维数组(三维矩阵)的形式,每个像素的值从0到255,图像中数值越大表示该点越亮,图像中数值越小表示该点越暗;例如:300*100*3,其中300是图像的长,100是宽,3表示颜色通道的数目,一张JPG图像或者RGB图像,其颜色通道数都是3;计算机视觉面临的挑战:照射角度改变、形状改变、部分遮蔽、背景混入机器学习常规套路:1、收集数据并给定标签
邱宇-
·
2022-11-20 11:38
深度学习
计算机视觉
人工智能
2020-4-5
深度学习笔记
17 - 蒙特卡罗方法 3 ( 马尔可夫链蒙特卡罗方法MCMC-先验分布/后验分布/似然估计,马尔可夫性质)
第十七章蒙特卡罗方法中文英文2020-4-4
深度学习笔记
17-蒙特卡罗方法1(采样和蒙特卡罗方法-必要性和合理性)2020-4-4
深度学习笔记
17-蒙特卡罗方法2(重要采样–采样数量一定,提高准确度,减少方差
没人不认识我
·
2022-11-20 10:43
深度学习
IT
机器学习
深度学习笔记
1——正则化
深度学习笔记
——正则化前言一、参数范数惩罚1.1L²参数正则化1.2L¹参数正则化二、数据集增强三、半监督学习四、多任务学习五、提前终止(earlystopping)六、参数绑定和参数共享(parametersharing
angkoryy
·
2022-11-20 10:19
机器学习
深度学习
深度学习笔记
(十六)正则化(L2 dropout 数据扩增 Earlystopping)
如果训练的模型过拟合,也就是高方差,我们首先想到的是正则化。高方差的解决方法有准备充足的数据,但是有时候我们无法找到足够的数据。下文详细说明正则化方法,包括L2正则化(菲罗贝尼乌斯)、dropout机制、数据扩增、Earlystopping。一、逻辑回归中的正则化需要求得损失函数J(w,b)J(w,b)J(w,b)的最小值,已知J(w,b)=1m∑i=1mL(y^(i),y(i))J(w,b)=\
Mr.zwX
·
2022-11-20 10:45
【深度学习/神经网络】Deep
Learning
神经网络与
深度学习笔记
(六)L2正则化
文章目录前言最小化代价函数正则化在神经网络中的L2L_2L2正则化为什么L2L_2L2正则化可以防止过拟合,减少方差?前言前面提到过高方差问题主要的两种方式:获取更多的数据去训练。然而这种方式局限在于,数据并不是总是很容易获得的或者数据获取的代价很大。正则化。这就是这篇文章需要来讨论的主题。最小化代价函数正则化使用L2L_2L2正则化的最小化代价函数:min(w,b)ȷ(w,b)=1m∑i=1mȷ
沧夜2021
·
2022-11-20 10:34
深度学习专项课程
深度学习
神经网络
机器学习
YOLOv5基础知识点——激活函数
_哔哩哔哩_bilibili
深度学习笔记
:如何理解激活函数?
MUTA️
·
2022-11-20 07:10
机器视觉
深度学习
人工智能
上一页
10
11
12
13
14
15
16
17
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他