本期为TechBeat人工智能社区第440期线上Talk。
北京时间9月15日(周四)20:00,FAIR Research Scientist——刘壮的Talk将准时在TechBeat人工智能社区开播!
他与大家分享的主题是: “高效和可扩展的视觉神经网络架构”,届时将介绍一种在图像分割任务上让模型更好地做到"任意时刻"推理的框架。接着我们来考察模型剪枝方法的有效性,将它们与一种非常简单的baseline方法进行比较,从而得出这些方法的实际价值可能是在于学习结构。
Talk·信息
▼
主题:高效和可扩展的视觉神经网络架构
嘉宾:FAIR Research Scientist 刘壮
时间:北京时间 9月15日 (周四) 20:00
地点:TechBeat人工智能社区
http://www.techbeat.net/
点击下方链接,即可观看视频
TechBeatTechBeat是荟聚全球华人AI精英的成长社区,每周上新来自顶尖大厂、明星创业公司、国际顶级高校相关专业在读博士的最新研究工作。我们希望为AI人才打造更专业的服务和体验,加速并陪伴其成长。https://www.techbeat.net/talk-info?id=713
Talk·介绍
▼
卷积网络和其他神经架构在计算机视觉上的成功应用是过去十年AI革命的关键。让视觉模型变"小"和变"大"都有很强的需求。小模型代表了对于高效性(Efficiency)的需求,因为视觉识别系统经常是要部署到边缘设备;大模型则强调了对于可扩展性(Scalability)的需求--可扩展性意味着模型能够利用巨量计算和数据来达到越来越高的准确度。在这两个方向的研究都产生了很多的成果,提出了很多设计的技巧,并且对于更好的模型的追求依然没有止步。同时,这个领域非常快速的进展也有时让究竟是什么机制促使了某些方法非常有效变得模糊。
具体分享提纲如下:
设计符合直觉的算法让卷积网络的推理更加高效和灵活;
通过研究baseline方法来分析一些方法成功的背后原因。
首先我们介绍一种在图像分割任务上让模型更好地做到"任意时刻"推理的框架。接着我们来考察模型剪枝方法的有效性,将它们与一种非常简单的baseline方法进行比较,从而得出这些方法的实际价值可能是在于学习结构。最后,我们讨论最近将卷积网络和Transformer进行比较的工作:我们通过将Transformer中的设计技巧融入到传统卷积网络中,来探究自注意力模块是否是Transformer强大可扩展性最重要的原因。
Talk·预习资料
▼
https://arxiv.org/abs/2104.00749
https://arxiv.org/abs/1810.05270
https://arxiv.org/abs/2201.03545
https://www2.eecs.berkeley.edu/Pubs/TechRpts/2022/EECS-2022-205.html
Talk·提问交流
▼
通过以下两种方式提问都将获得微信现金红包奖励哦!
方式 ①
在Talk界面下的【交流区】参与互动!留下你的打call和问题,和更多小伙伴们共同讨论,被讲者直接翻牌解答!
你的每一次贡献,我们都会给予你相应的i豆积分,还会有惊喜奖励哦!
方式 ②
在本文留言区直接提出你的问题!
Talk·嘉宾介绍
▼
刘壮
FAIR Research Scientist
刘壮,目前在Meta AI的FAIR团队担任Research Scientist,博士毕业于加州大学伯克利分校计算机系。研究兴趣为深度学习,计算机视觉和表征学习等。提出过知名神经网络模型架构DenseNet, ConvNeXt等。曾在Intel Labs、Adobe Research、FAIR和康奈尔大学进行研究访问或者实习。2017年本科毕业于清华大学姚班。获得过CVPR最佳论文奖,NeurIPS Workshop最佳论文奖,Snap Research Fellowship等奖项。
个人主页:
https://liuzhuang13.github.io/
-The End-
关于TechBeat人工智能社区
▼
TechBeat(TechBeat)隶属于将门创投,是一个荟聚全球华人AI精英的成长社区。
我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。
期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!
更多详细介绍>>TechBeat,一个荟聚全球华人AI精英的学习成长社区