论文笔记-混合卷积MixConv: Mixed Depthwise Convolutional Kernels

Hello,今天是论文阅读计划的第9天啦~

调整计划后,现在都趁着早上最安静最无打扰的时候看论文,完成每天的论文阅读任务。

今天我们介绍一篇混合卷积的内容,我最初找到这篇论文呢,是因为我自己做的论文,在思考怎么能让它更好的补获时序信息。所以现在会有意识的培养自己论文阅读的习惯,不断累积更多的想法,在未来突然有需要的时候,脑袋里不会空空如也。

一、题目关键词解读

MixConv: 混合卷积,思考怎么混合法?大概是不同大小的卷积吧,但具体怎么设置还要继续往下看。
Depthwise: DW卷积,最初了解到它的时候是在MobileNet里面。

二、研究背景

目前的大部分神经网络中使用小卷积核来代替大卷积核,同时可以使用多个小卷积核串联代替大卷积核,这样可以减少模型的参数量,也就是说使用33的卷积核连续卷积2次可以达到55的卷积核卷积1次提取特征图的能力。同时使用小卷积核代替大卷积核具有以下几个优点:整合了多个非线性激活层,代替单一非线性激活层,增加了判别能力;减少了网络参数;减少计算量。但是使用大卷积核有利于获得较多的全局信息,适用于大分辨率模型中;小卷积核有利用用于较低分辨率的模型中,这里就是将不同大小的卷积核应用在同一层中,不过这里使用的深度可分离卷积。

三、研究目标 & 内容

目标:利用不同卷积核尺寸的优势,使网络能在不同分辨率下进行更好的特征提取。

内容:将多个不同尺寸的卷积核组合成一个单独的深度卷积,使该深度卷积操作易于从输入图像中获取不同类型的模式

你可能感兴趣的:(#,论文阅读笔记)