动态神经网络

2201.30
cgm.--Gao Huang, RANet (ICLR 2018).

Resolution Adaption,输入的冗余
分类任务,
other作模型冗余

transition--降通道数(depth)

  • MSDNet 特点:
    identity---dense 密连
    depth(layers)越深,计算量越大;分辨率越大,计算量越大

2201.19
cgm.--Gao Huang, MSDNet (ICLR 2018).
dsj.--AutoScale for Crowd Counting (IJCV 2022).

conclusion: 分类在coarse-feature上做性能更高,densenet高分辨率feature保留信息更完整
image.png

c1: 每个instance有确定的B
c2: 为每个instance分配B >> 设置预制,l从浅往深,怎么设置阈值

  • p1: lack coarse feature
    a1: classifier接在粗分辨率上

a3: densenet

梯形网络-简化网络模型

ensemble方法

2201.12
cgm.-- Fang Wan, Min-Entropy Latent Model (CVPR 2018, TPAMI).
didi.-- Jing Zhang, ViTAE (NeurIPS 2021).

你可能感兴趣的:(动态神经网络)