深度学习论文创新点

本文看了至少50篇论文,总结出了论文的创新点,都是深度学习方面的,分类,分割居多,检测少点,都在下面,按照我的创新点保证可以发出至少中文核心的文章,满足毕业要求。sci也有可能

 

 

 

 

添加attention 机制
添加inception

添加新东西可以命名为:某某++

目前主要有四种normalization,是不是自己也可以增加一种normalization

可以在自己设计的网络模型上再添加迁移学习

很多论文在经典的网络上修改网络卷积核的大小,然后添加跳跃连接之类的,作为创新点。

自己的网络结构创新点1:好几个Block放在一起作为自己的一个Scale(自己命名的)。

VGG使用小卷积核(3*3)代替大的卷积核,减少参数量和进行更多的非线性映射,以增加网络的拟合/表达能力。
VGG使用小池化核(2*2)

可使用膨胀卷积+残差网络进行结合+感知损失,可将普通的卷积变成膨胀卷积

一般自己的网络命名也需要一个名字,可以把自己网络添加的两个创新点结合原始网络三个首字母命名为自己网络的名字,增加可信度。

自己的网络结构和各种其他经典的网络结构。经典的网络结构也可以看是否添加某项参数(正则项,激活函数之类的),进行比较,比较的多可行度更高。
在添加跳跃链接的时候还可以加上另一个功能会使得效果更好。

可以扩展网络的对目标的识别,横向对接多个卷积核,之后再进行相加。横向添加卷积核,之后再添加多个经典的残差模块1

使用极限学习机代替BP神经网络,也是一个创新点。如果人家是最大池化,我们可以使用最大池化和均值池化相结合的方法,增大局部感受野

可以修改残差快,比如在残差快的跳跃连接上接入BN、激活、权重之类的。

可以在残差快里面再用一个自己的模块,或者套用一个模块

偶数卷积和基数卷积

你可能感兴趣的:(创新点,深度学习)