HRFormer 多分辨率Transformer 参数骤降,性能更强

今天推荐的文章是来自中科院、北大、微软亚研、百度联手提出HRFormer模型,能够在多分辨率并行,参数量下降了40%,但是性能更好!本文也被收录NeurIPS 2021,文章2021年10月份刚出来

HRFormer 多分辨率Transformer 参数骤降,性能更强_第1张图片

论文链接:https://arxiv.org/pdf/2110.09408.pdf

代码链接:https://github.com/HRNet/HRFormer

摘要:

HRFormer 多分辨率Transformer 参数骤降,性能更强_第2张图片

HRFormer block

HRFormer 多分辨率Transformer 参数骤降,性能更强_第3张图片

高分辨率 Transformer 结构

HRFormer 多分辨率Transformer 参数骤降,性能更强_第4张图片

HRFormer设计

HRFormer 多分辨率Transformer 参数骤降,性能更强_第5张图片

HRFormer 多分辨率Transformer 参数骤降,性能更强_第6张图片

效果展示

HRFormer 多分辨率Transformer 参数骤降,性能更强_第7张图片

姿态对比结果

HRFormer 多分辨率Transformer 参数骤降,性能更强_第8张图片

HRFormer 多分辨率Transformer 参数骤降,性能更强_第9张图片

语义分割结果

HRFormer 多分辨率Transformer 参数骤降,性能更强_第10张图片

分类结果

HRFormer 多分辨率Transformer 参数骤降,性能更强_第11张图片

参数量对比

HRFormer 多分辨率Transformer 参数骤降,性能更强_第12张图片

作者里有好几个大佬,文章做得实验也很充分,内容充实,值得好好学习!

你可能感兴趣的:(深度学习宝典,transformer,深度学习,人工智能)