Inception

inception-v1,v2,v3,v4----论文笔记

最近通读了inception的四篇论文,在此做一下笔记。

先给出这四篇论文的地址:

Going deeper with convolutions:https://arxiv.org/pdf/1409.4842.pdf

Batch Normalization: https://arxiv.org/pdf/1502.03167.pdf

Rethinking the Inception Architecture for Computer Vision:https://arxiv.org/pdf/1512.00567.pdf

Inception-v4, Inception-ResNet: https://arxiv.org/pdf/1602.07261.pdf


Inception-v1

在这篇轮文之前,卷积神经网络的性能提高都是依赖于提高网络的深度和宽度,而这篇论文是从网络结构上入手,改变了网络结构,所以个人认为,这篇论文价值很大。

该论文的主要贡献:提出了inception的卷积网络结构。

从以下三个方面简单介绍这篇论文:为什么提出Inception,Inception结构,Inception作用

为什么提出Inception

提高网络最简单粗暴的方法就是提高网络的深度和宽度,即增加隐层和以及各层神经元数目。但这种简单粗暴的方法存在一些问题:

  • 会导致更大的参数空间,更容易过拟合
  • 需要更多的计算资源
  • 网络越深,梯度容易消失,优化困难(这时还没有提出BN时,网络的优化极其困难)

基于此,我们的目标就是,提高网络计算资源的利用率,在计算量不变的情况下,提高网络的宽度和深度。

作者认为,解决这种困难的方法就是,把全连接改成稀疏连接,卷积层也是稀疏连接,但是不对称的稀疏数据数值计算效率低下,因为硬件全是针对密集矩阵优化的,所以,我们要找到卷积网络可以近似的最优局部稀疏结构,并且该结构下可以用现有的密度矩阵计算硬件实现,产生的结果就是Inception。

Inception结构
   

首先看第一个结构,有四个通道,有1*1、3*3、5*5卷积核,该结构有几个特点:

  • 使用这些大小卷积核,没有什么特殊含义,主要方便对齐,只要padding = 0、1、2,就可以得到相同大小的特征图,可以顺利concat。
  • 采用大小不同的卷积核,意味着感受野的大小不同,就可以得到不同尺度的特征。
  • 采用比较大的卷积核即5*5,因为有些相关性可能隔的比较远,用大的卷积核才能学到此特征。

但是这个结构有个缺点,5*5的卷积核的计算量太大。那么作者想到了第二个结构,用1*1的卷积核进行降维。

这个1*1的卷积核,它的作用就是:
  • 降低维度,减少计算瓶颈
  • 增加网络层数,提高网络的表达能力

那么在具体的卷积神经网络中,Inception应该放在哪里,作者的建议,在底层保持传统卷积不变,在高层使用Inception结构。

Inception作用
作者指出了Inception的优点:
  • 显著增加了每一步的单元数目,计算复杂度不会不受限制,尺度较大的块卷积之前先降维
  • 视觉信息在不同尺度上进行处理聚合,这样下一步可以从不同尺度提取特征

但是具体,为什么Inception会起作用,我一直想不明白,作者后面实验也证明了GoogLeNet的有效性,但为什么也没有具体介绍。深度学习也是一个实践先行的学科,实践领先于理论,实践证明了它的有效性。后来看到一个博客,解开了我的谜团。在此贴出他的回答。

Inception的作用就是替代了人工确定卷积层中过滤器的类型或者是否创建卷积层和池化层,让网络自己学习它具体需要什么参数。

Inception-v2

这篇论文主要思想在于提出了Batch Normalization,其次就是稍微改进了一下Inception。

Batch Normalization

这个算法太牛了,使得训练深度神经网络成为了可能。从一下几个方面来介绍。

  1. 为了解决什么问题提出的BN
  2. BN的来源
  3. BN的本质
为了解决什么问题提出的BN

训练深度神经网络时,作者提出一个问题,叫做“Internal Covariate Shift”。

这个问题是由于在训练过程中,网络参数变化所引起的。具体来说,对于一个神经网络,第n层的输入就是第n-1层的输出,在训练过程中,每训练一轮参数就会发生变化,对于一个网络相同的输入,但n-1层的输出却不一样,这就导致第n层的输入也不一样,这个问题就叫做“Internal Covariate Shift”。

为了解决这个问题,提出了BN。

BN的来源
白化操作--在传统机器学习中,对图像提取特征之前,都会对图像做白化操作,即对输入数据变换成0均值、单位方差的正态分布。
卷积神经网络的输入就是图像,白化操作可以加快收敛,对于深度网络,每个隐层的输出都是下一个隐层的输入,即每个隐层的输入都可以做白化操作。

在训练中的每个mini-batch上做正则化:


BN的本质

我的理解BN的主要作用就是:

  • 加速网络训练
  • 防止梯度消失

如果激活函数是sigmoid,对于每个神经元,可以把逐渐向非线性映射的两端饱和区靠拢的输入分布,强行拉回到0均值单位方差的标准正态分布,即激活函数的兴奋区,在sigmoid兴奋区梯度大,即加速网络训练,还防止了梯度消失。

基于此,BN对于sigmoid函数作用大。

sigmoid函数在区间[-1, 1]中,近似于线性函数。如果没有这个公式:

就会降低了模型的表达能力,使得网络近似于一个线性映射,因此加入了scale 和shift。

它们的主要作用就是找到一个线性和非线性的平衡点,既能享受非线性较强的表达能力,有可以避免非线性饱和导致网络收敛变慢问题。

Inception

把Inception-v1中5*5的卷积用2个3*3的卷积替换,这也是VGG那篇论文所提到的思想。这样做法有两个优点:
  • 保持相同感受野的同时减少参数
  • 加强非线性的表达能力

Inception-v3

这篇论文两个思路:

  • 提出神经网络结构的设计和优化思路
  • 改进Inception

设计准则

  1. 避免网络表达瓶颈,尤其在网络的前端。feature map急剧减小,这样对层的压缩过大,会损失大量信息,模型训练困难
  2. 高维特征的局部处理更困难
  3. 在较低维度空间聚合,不会损失表达能力。
  4. 平衡网络的宽度和深度

改进Inception

首先Inception取得了很好的效果,它的主要特点就是:参数、内存和计算资源比传统网络小得多。
由于Inception特殊性,对它进行改进比较困难,最简答直接的办法,就是堆积更多的Inception模块,但这样就失去了它的特点,因此作者做了改进。牛掰呀!

改进有三个方面

分解卷积核尺寸

这个也有两个办法

  • 分解为对称的小的卷积核
  • 分解为不对称的卷积核

其实第一种方法,我觉得就是VGG中的思想,将5*5的卷积核替换成2个3*3的卷积核

上图左边是原来的Inception,右图是改进的Inception。

第二种方法就是将n*n的卷积核替换成 1*n 和 n*1 的卷积核堆叠,计算量又会降低。

但是第二种分解方法在大维度的特征图上表现不好,在特征图12-20维度上表现好。

不对称分解方法有几个优点:

  • 节约了大量的参数
  • 增加一层非线性,提高模型的表达能力
  • 可以处理更丰富的空间特征,增加特征的多样性

上图是不对称分解的两种方式。

使用辅助分类器

其实在第一篇论文中GoogLeNet中就使用了辅助分类器,使用了2个,那么它的优势就是

  • 把梯度有效的传递回去,不会有梯度消失问题,加快了训练
  • 中间层的特征也有意义,空间位置特征比较丰富,有利于提成模型的判别力

改变降低特征图尺寸的方式

设计准则的第一条,就是避免表达瓶颈。那么传统的卷积神经网络的做法,当有pooling时(pooling层会大量的损失信息),会在之前增加特征图的厚度(就是双倍增加滤波器的个数),通过这种方式来保持网络的表达能力,但是计算量会大大增加。

上图就是作者的改进方式。有两个通道,一个是卷积层,一个是pooling层,两个通道生成的特征图大小一样,concat在一起即可。

Inception-v4

这篇论文,没有公式,全篇都是画图,就是网络结构。

主要思想很简单:Inception表现很好,很火的ResNet表现也很好,那就想办法把他们结合起来呗。

Inception v4

Inception-ResNet v1

Inception-ResNet v2

还有几个作者通过实验总结的几个知识点:

1、Residual Connection

作者认为残差连接并不是深度网络所必须的(PS:ResNet的作者说残差连接时深度网络的标配),没有残差连接的网络训练起来并不困难,因为有好的初始化以及Batch Normalization,但是它确实可以大大的提升网路训练的速度。

2、Residual Inception Block

可以看到我画圈的部分,那个1*1的卷积层并没有激活函数,这个作用主要是维度对齐。

3、Scaling of the Residual

当过滤器的数目超过1000个的时候,会出现问题,网络会“坏死”,即在average pooling层前都变成0。即使降低学习率,增加BN层都没有用。这时候就在激活前缩小残差可以保持稳定。即下图

4、网络精度提高原因

残差连接只能加速网络收敛,真正提高网络精度的还是“更大的网络规模”。

参考

https://blog.csdn.net/loveliuzz/article/details/79135583

https://blog.csdn.net/kangroger/article/details/69218625

https://blog.csdn.net/wspba/article/details/68065564


还有一些其他的,我看到一两个点,但是忘记收藏网站了,如看到会加上,如看到请@我谢谢!

        
展开阅读全文
    


	
  • 上一页
  • 1
  • 下一页

深度学习之图像分类模型inception v2、inception v3解读

03-05 阅读数 6万+

inceptionv2与inceptionv3两种模型配置。Inceptionv3单模型达到了21.2%的top1错误率,多模型达到了17.3%的top1错误率... 博文 来自: 孙佰贵的专栏

极简解释inception V1 V2 V3 V4

06-24 阅读数 7126

Inceptionv1inception的核心就是把googlenet的某一些大的卷积层换成1*1,3*3,5*5的小卷积,这样能够大大的减小权值参数数量。直接上一张完整的图片可以看到,卷积了几步之后... 博文 来自: 念去去的博客

Inception V1

10-21 阅读数 1313

与VGGNet同年的冠军-InceptionV1不仅控制了计算量和参数量,同时分类性能也非常好。相比于AleXNet(8层)和VGGNet(19层),inceptionV1具有22层。Inceptio... 博文 来自: ifruoxi的博客

GoogLe图像分类模型 Inception-v2,Inception-v3 论文笔记

07-21 阅读数 3676

GoogLe图像分类模型Inception-v2,Inception-v3论文笔记标题:RethinkingtheInceptionArchitectureforComputerVision作者:Ch... 博文 来自: Cyiano的博客

【深度学习】GoogLeNet系列解读 —— Inception v4

10-29 阅读数 4075

目录GoogLeNet系列解读Inceptionv1Inceptionv2Inceptionv3Inceptionv4简介在介绍Inceptionv4之前,首先说明一下Inceptionv4没有使用残... 博文 来自: z小白的博客

深度学习---GoogLeNet

04-24 阅读数 1万+

一、文介绍的是著名的网络结构GoogLeNet及其延伸版本,目的是试图领会其中的思想而不是单纯关注结构。GoogLeNetIncepetionV1MotivationArchitecturalDeta... 博文 来自: Dean

Inception

08-01 阅读数 472

InceptionV1模型 Inceptionv1的网络,将1x1,3x3,5x5的conv和3x3的pooling,堆叠在一起,一方面增加了网络的width,另一方面增加了网络对尺度的适应性:所有的... 博文 来自: u013102349的博客

MySQL 审核工具 Inception

12-06 阅读数 1348

一直打算安装 Inception,也一直拖到现在,看着 Inception闭源。有github中保存了一份,并且重命名为  SQLaudit。虽然闭源了,但是还是能用的,现在安装测试。 版本信息:版本... 博文 来自: KK 笔记:专注数据

Inception v3 论文笔记

05-21 阅读数 2852

Inceptionv3:[RethinkingtheInceptionArchitectureforComputerVision][#1][#1]:Inceptionv3地址 博文 来自: 黑暗星球

目标检测算法七讲

基于深度学习的目标检测,RCNN->SppNET->Fast-RCNN->Faster-RCNN以及YOLO v1,v2,v3n 学院 讲师: 王而川

Inception网络总结

09-20 阅读数 1245

参见 : https://blog.csdn.net/qq_14845119/article/details/73648100 v1:G... 博文 来自: Kellbook的博客

Inception安装部署实现SQL自动审核与上线

04-08 阅读数 1万+

 1  Incption概述1.1 Inception简介Inception是集审核、执行、回滚于一体的一个自动化运维系统,它可以对提交的所有语句的语法分析,如果语法有问题,都会将相应的错误信息返回给... 博文 来自: thundermeng的博客

		

Inception in CNN

04-03 阅读数 4万+

之前也写过GoogLeNet的笔记,但那个时候对Inception有些似懂非懂,这周重新看了一遍,觉得有了新的体会,特地重新写一篇博客与它再续前缘。... 博文 来自: 雨石

Inception一家

10-12 阅读数 140

原始的Inception模型,也就引进11卷积核之后,被称为Inception-v1,加入batchnormalization之后被称为Inception-v2,加入factorization的ide... 博文 来自: 丝萝愿为乔木的博客

Inception网络

04-24 阅读数 622

本文来自于网易云课堂Inception网络简介当构建卷积层时需要考虑过滤器的大小究竟是1×3,3×3还是5×5,要不要添加池化层而inception网络的作用就是代替你来做决定。虽然网络架构因此变得更... 博文 来自: u010132497的博客

Batch Normalization论文解读与Inception V2代码简析

08-14 阅读数 1688

目录 论文阅读 代码简析 小结 论文阅读InceptionV2是Inception家族的一个中间件产物,在论文RethinkingtheInceptionArchitectureforComp... 博文 来自: stesha_chen的博客

inceptionv3实现.

05-26 阅读数 857

在迁移学习中,我们需要对预训练的模型进行fine-tune,而pytorch已经为我们提供了alexnet、densenet、inception、resnet、squeezenet、vgg的权重,这些... 博文 来自: 邹小驴

Inception 模块作用

09-11 阅读数 1882

增加网络深度和宽度的同时减少参数。InceptionV1增加了网络的宽度,增加了网络对尺度的适应性,不同的支路的感受野是不同的,所以有多尺度的信息在里面。第二张图引入了1x1卷积主要是为减少了减参。I... 博文 来自: liguandong

Tensorflow实战:Inception_V3原理及实现(多注释)

09-03 阅读数 1652

    参考《Tensorflow实战》黄文坚,对Inception_V3进行了实现,增加了自己的理解,欢迎提问!!    Inception_V3中使用了称为Inceptionmodel的结构,In... 博文 来自: m0_37917271的博客

[论文笔记] Inception V1-V4 系列以及 Xception

11-02 阅读数 301

作者团队:谷歌InceptionV1(2014.09)网络结构主要受Hebbianprinciple与多尺度的启发。Hebbianprinciple:neuronsthatfiretogrther,w... 博文 来自: Bingyu Xin的博客

Inception(v1-v4)

09-08 阅读数 775

Inception结构网络结构优化方向发布时间InceptionV1GoogleNet2014InceptionV2BatchNorm2015Inceptionv3Factorization2015I... 博文 来自: 时光机 °的博客

深入浅出——网络模型中Inceptionv1到 v4 的作用与结构全解析

09-19 阅读数 3万+

深入浅出——网络模型中Inception的作用与结构全解析转载地址http://blog.csdn.net/u010402786目录(?)[+]一论文下载  本文涉及到的网络模型的相关论文以及下载地址... 博文 来自: u014114990的专栏

Google Inception Net介绍

06-22 阅读数 579

一、InceptionV1简介GoogleInceptionNet(InceptionV1)首次出现是在ILSVRC2014的比赛中,GoogleInceptionNet以top5的错误率为6.67%... 博文 来自: 修炼之路

Inception系列解读

12-07 阅读数 86

Inception-v1思想:加宽;多种不同卷积都用上Inceptionmodule 的提出主要考虑多个不同size的卷积核能够增强网络的适应力,paper中分别使用1*1、3*3、5*5卷积核,同时... 博文 来自: tominent的博客

inception v1原理

01-30 阅读数 819

Paper:[v1]GoingDeeperwithConvolutions,6.67%testerror,http://arxiv.org/abs/1409.4842[v2]BatchNormaliz... 博文 来自: qq_35608277的博客

Inception网络理解

10-22 阅读数 5377

Inception网络的理解   第一张图是论文中提出的最原始的版本,所有的卷积核都在上一层的所有输出上来做,那5×5的卷积核所需的计算量就太大了,造成了特征图厚度很大。为了避免这一现象提出的ince... 博文 来自: BigCowPeking

【深度学习】GoogLeNet系列解读 —— Inception v1

10-27 阅读数 3138

目录GoogLeNet系列解读Inceptionv1Inceptionv2Inceptionv3Inceptionv4简介GoogLeNet网络核心模块是Inception module,一共经历了4... 博文 来自: z小白的博客

从Inception v1,v2,v3,v4,RexNeXt到Xception再到MobileNets,ShuffleNet,MobileNetV2,ShuffleNetV2

06-23 阅读数 3万+

v1:GoingdeeperwithconvolutionsInceptionv1的网络,主要提出了Inceptionmodule结构(1*1,3*3,5*5的conv和3*3的pooling组合在一... 博文 来自: 年轻即出发,

Linux 如何开放端口和关闭端口

05-15 阅读数 5万+

一、查看哪些端口被打开netstat-anp二、关闭端口号:iptables-AOUTPUT-ptcp--dport端口号-jDROP三、打开端口号:iptables-AINPUT-ptcp--dpo... 博文 来自: 赵先森

Inception v1 / GoogLeNet 论文笔记

05-15 阅读数 897

Inceptionv1/GoogLeNet:GoingDeeperwithConvolutions摘要:我们提出了一个名为Inception的深度卷积神经网络架构,它是ILSVRC2014的冠军。In... 博文 来自: 黑暗星球

tensorflow+inceptionv3图像分类网络结构的解析与代码实现【附下载】

05-07 阅读数 8026

论文链接:论文地址ResNet传送门:Resnet-cifar10DenseNet传送门:DenseNetSegNet传送门:Segnet-segmentation深度学习的火热,使得越来越多的科研人... 博文 来自: AI前行之路

Inception模型中遇到的细节问题思考记录

05-28 阅读数 2291

声明:文章有部分内容为别人博客里面提到的,我觉得语言组织的很好所以就直接拿过来用了,如有侵权,请联系我删除或修改。一、Inceptionv1(GoogleNet)对左上图做以下说明: 1 . 采用不同... 博文 来自: gbyy42299的博客

深入浅出——网络模型中Inception的作用与结构全解析

09-04 阅读数 6万+

Inception-V1Inception-V2Inception-V3Inception-V4 博文 来自: 深度学习思考者

深度学习卷积神经网络——经典网络GoogLeNet(Inception V3)网络的搭建与实现

01-23 阅读数 3万+

一、Inception网络(google公司)——GoogLeNet网络的综述获得高质量模型最保险的做法就是增加模型的深度(层数)或者是其宽度(层核或者神经元数),但是这里一般设计思路的情况下会出现如... 博文 来自: loveliuzz的博客

2018华为软件精英挑战赛体会

04-19 阅读数 6411

2018华为软件精英挑战赛体会(附代码参考)从2月末了解到这个比赛到4月15好初赛正式比赛已经过去了一个多月,期间穿插了几个面试,虽然最后比赛失利,略显遗憾,但这个比赛还是很有意思的,有兴趣的可以参加... 博文 来自: mythinker2的博客

直观理解深度学习的卷积操作,超赞!

07-18 阅读数 1万+

翻译|于志鹏 赵朋飞    校对 |  翟修川    整理| 凡江转自|AI研习社近几年随着功能强大的深度学习框架的出现,在深度学习模型中搭建卷积神经网络变得十分容易,甚至只需要一行代码就可以完成。但... 博文 来自: 机器学习算法与Python学习

深度学习中的「卷积层」如何深入理解?

11-30 阅读数 4500

本文经公众号「雷克世界」授权转载(微信号:ROBO_AI)原文来源:medium作者:ApilTamang「雷克世界」编译:嗯~阿童木呀多啦A亮近来,深度学习的火爆程度显而易见,而在深度学习领域,卷积... 博文 来自: 深度学习世界

神经网络之Inception模型的实现(Python+TensorFlow)

08-12 阅读数 3680

用tensorflow+python实现经典神经网络inception_v3,增加理解,留作笔记。 博文 来自: 不眠旅行

深度学习之基础模型—InceptionV1(GoogLeNet)

10-05 阅读数 3826

与VGG同年,google也独立在深度网络的深度方向进行了研究。发明了一个22层的深度神经网络,为了致敬LeNet,取名GoogLeNet(非GoogleNet)。该结构充分利用了网络结构中子网络的计... 博文 来自: whz1861的博客

理解深度学习中的Inception网络

06-08 阅读数 3105

背景构建CNN时,你要决定卷积核的大小,是1x3合适,还是3x3合适,还是5x5合适?要不要添加pooling层?做这些决定(很可能是通过gridsearch)很麻烦,对吧?Inception网络的优... 博文 来自: ybdesire的专栏

Inception —— 计算机视觉架构再思考

06-13 阅读数 2989

自从2012年Krizhevsky等赢了ImageNet竞赛后,他们的AlexNet被成功应用在大量的计算机视觉任务,例如物体检测,分割,人体姿势估计,视频分类,物体追踪和图像超分辨。这些成功激发了对... 博文 来自: wangli0519的博客

网络结构 - Inception深度网络家族盘点

02-25 阅读数 449

Inception深度网络家族盘点|Inceptionv4和Inception-ResNet未来走向何方?原文转自Inception深度网络家族盘点|Inceptionv4和Inception-Res... 博文 来自: 长风破浪会有时,直挂云帆济沧海

Inception 模型

05-09 阅读数 4733

inceptionv1:去除了最后的全连接层,使用全局平均池化层来代替,因为全连接层的参数很多,基本上占据了百分之九十的参数,而且全连接层会带来过拟合的问题。采用了inceptionmodule。He... 博文 来自: xxiaozr的博客

使用 Inception-v3,实现图像识别(Python、C++)

01-03 阅读数 517

目录简介使用PythonAPI使用C++API 简介 对于我们的大脑来说,视觉识别似乎是一件特别简单的事。人类不费吹灰之力就可以分辨狮子和美洲虎、看懂路标或识别人脸。但对计算机而言,这些实际上是很难处... 博文 来自: 不脱发的程序猿

TensorFlow-一种改进的inception-v3迁移学习(图文)

04-20 阅读数 2096

本文是关于如何用谷歌提供的训练好的Inception-v3进行水果图片分类,涉及以下几个内容:下载inception-v3(谷歌训练好的模型)图片数据的下载图片数据的清洗将模型用于图片分类------... 博文 来自: menghaocheng的专栏

极简解释inception V1 V2 V3 V4 - 念去去的博客 - CSDN博客

4-18

当然,有了batch_normal并不是完整的inception V2,官方定义这个叫做V1的加强版,...用tensorflow+python实现经典神经网络inception_v3,增加理解,留作笔记。 博文 来自...

Inception v1 —v2v3 —v4 - nysai的博客 - CSDN博客

11-17

inception-v1,v2,v3,v4---论文笔记 - weixin_39953502的博客 07-09 344 最近通读了inception的四篇论文,在此做一下笔记。先给出这四篇论文的地址:Going...

[Python图像处理] 四.图像平滑之均值滤波、方框滤波、高斯滤波及中值滤波

09-02 阅读数 7538

本篇文章主要讲解Python调用OpenCV实现图像平滑,包括四个算法:均值滤波、方框滤波、高斯滤波和中值滤波。全文均是基础知识,希望对您有所帮助。知识点如下:1.图像平滑2.均值滤波3.方框滤波4.... 博文 来自: 杨秀璋的专栏

计算图像均值

10-15 阅读数 6564

计算图像均值是图像预处理中的常见操作,计算机视觉中,深度学习框架输入图片后一般都会进行均值削减,分两种方法,一种是减去均值文件,另一种是生成RGB三个数值。第一种方法一般参考各自框架的API即可。第二... 博文 来自: Never-guess的博客

共轭梯度算法 详细

05-09 阅读数 4592

共轭梯度算法介绍在数值线性代数中,共轭梯度算法是一种求解对称正定线性方程组Ax=bAx=bAx=b的迭代方法。事实上,求解Ax=bAx=bAx=b等价于求解min 12xTAx+bT... 博文 来自: qq_20186593的博客

基于Pytorch实现深度学习优化算法(Adagrad/RmsProp/Momentum/Adam)

08-12 阅读数 3334

以下介绍深度学习的主要几种参数更新的优化方法1.Adagrad使得学习率η∑ti=0(g2i)√η∑i=0t(gi2)\frac{\eta}{\sqrt{\sum_{i=0}^t(g_i^2)}}可以... 博文 来自: qq_37053885的博客

机器学习: 共轭梯度算法(PCG)

06-02 阅读数 6502

今天介绍数值计算和优化方法中非常有效的一种数值解法,共轭梯度法。我们知道,在解大型线性方程组的时候,很少会有一步到位的精确解析解,一般都需要通过迭代来进行逼近,而PCG就是这样一种迭代逼近算法。我们先... 博文 来自: ZARD

OpenCV 自学笔记33. 计算图像的均值、标准差和平均梯度

11-21 阅读数 2万+

OpenCV自学笔记33.计算图像的均值、标准差和平均梯度均值、标准差和平均梯度是验证图像质量的常用指标。其中:均值反映了图像的亮度,均值越大说明图像亮度越大,反之越小;标准差反映了图像像素值与均值的... 博文 来自: 两鬓已不能斑白的专栏

使用/dev/mem内存映射的方式操作GPIO口

11-14 阅读数 1万+

使用的是全志H3的芯片,运行Debian Desktop系统的ARM版本Armbian,要控制外部几个IO口,可以使用很多种方法,如果对GPIO的操作速度有要求就需要使用直接操作内存寄存器的方式来控制... 博文 来自: 欢迎光临

centos7 开启网络连接

03-15 阅读数 3万+

1.当我们发现无法联网时,我们运行下面命令或者ping命令rnip  addrrnrn结果没有显示局域网的IP地址rn2.我们去修改网卡配置文件,把网络连接打开rncd /rncd  /etc/sys... 博文 来自: sfeng95的博客

基于EasyIPCamera实现的数字网络摄像机IPCamera的模拟器IPC RTSP Simulator

03-22 阅读数 1万+

还记得去年在北京安博会上,看到一些厂家的展示台上,各种船舶、公路、车辆的高清视频直播,好奇这些数据是怎么接到现场的,现场成百上千家展台,不可能有那么大的带宽供应,细想数据肯定不是实时的,果然,盯着看了... 博文 来自: Babosa的专栏

jquery/js实现一个网页同时调用多个倒计时(最新的)

11-25 阅读数 57万+

jquery/js实现一个网页同时调用多个倒计时(最新的)nn最近需要网页添加多个倒计时. 查阅网络,基本上都是千遍一律的不好用. 自己按需写了个.希望对大家有用. 有用请赞一个哦!nnnn//jsn... 博文 来自: Websites

fragment清除页面数据(重新加载布局)

07-27 阅读数 3万+

上一篇博客介绍了如何解决Fragment重叠的问题,有需要的同学可以看一下,底部有demo下载。 n直通车:完美解决Fragment重叠本篇博客我们来说一下怎么让fragment重新加载布局资源文件。... 博文 来自: 喻志强的博客

mybatis一级缓存(session cache)引发的问题

05-14 阅读数 5万+

mybatis一级缓存(session cache)引发的问题 博文 来自: flysharkym的专栏

Docker学习系列(一):windows下安装docker

05-11 阅读数 16万+

本文目录如下:windows按照docker的基本要求n具体安装步骤n开始使用n安装远程连接工具连接dockern安装中遇到的问题nDocker的更新nDocker中的jupyternwindows下... 博文 来自: tina的博客

            
                        

没有更多推荐了,返回首页

你可能感兴趣的:(Inception)