来源:https://www.zhihu.com/question/372070853
编辑:深度学习与计算机视觉
声明:仅做学术分享,侵删
Rebuttal阶段已经结束,很多稿子的discussion也都结束了,国内时间24号通知最终结果。
作者:匿名用户
https://www.zhihu.com/question/372070853/answer/1035277311
和合作者做了个风格化相关的应用中了。
可能算是为数不多的中了CVPR的化学PhD了。虽然做的湿化学,不过平时也写代码,差不多比较早就认识了天坑本质,所以化学PhD毕业以后就彻底转行CS了。自我感觉比较可惜的是没去读CS相关的PhD,所以业余兴趣能够投中还是非常开心的,算是弥补了些许遗憾。一开始还害怕过于冷门会被拒,不过初审的分数还是可以的,reviewer也比较内行,给的反馈挺准确的,感觉都可以猜到是小领域里的某几位了。这两天等结果,比读PhD时投化学文章焦虑多了。可能是因为真的在乎吧。
感谢合作者,也感谢这个时代。
作者:齐国君
https://www.zhihu.com/question/372070853/answer/1036736647
恭喜团队四篇论文被cvpr2020接收。尤其可贺的是成功地把我近期力推的AET用在了图模型和GAN网络的无监督自训练上,取得了突破性的进展。至此,我们的AET (Auto-Encoding Transformations) 已经形成了一个完整系列的系统工作,从图像分类、物体检测、图模型、GAN网络,并有了从信息论到李代数的一整套解释和理论。之后我们会开发一套完整的工具包方便大家使用和研究。
下面主要介绍下AET模型在图模型和GAN网络无监督训练上的突破。
图模型:GraphTER: Unsupervised learning of Graph Transformation Equivariant Representations via Auto-Encoding Node-wise Transformations [pdf]
这个方法是通过对Graph 中node进行全局或局部变换与扰动,并通过对node-wise transformations进行预测来实现GNN网络的self-training。学习得到的特征既可以是node-wise feature,也可以是对整个graph的feature。这种方法的思想是好的graph特征应当可以很好地对graph地链接与拓扑结构进行编码,进而能够从中提取出作用在graph拓扑结构上地各种变换。虽然我们在这篇文章中是以3D点云相应地graph为研究对象,但所用的自监督graph网络训练方法具有通用性,可以用在很多其他的graph 任务上。
GAN模型: Transformation GAN for unsupervised Image Synthesis and Representation Learning
这篇论文中,我们把AET 思想用来训练GAN模型。这里用AET对应的loss作为正则化项来更好的训练GAN中的discriminator。众所周知的是,GAN 中的discriminator训练极容易过拟合,而加入各种新的变换后,discriminator 网络可以更好的感知到在不同的变换下,真实样本和虚假样本之间的区别,进而可以更好的训练出更好的generator网络。传统的数据增强需要假设变换后的样本仍然具有高度的真实性。但大强度的变换往往会引入各种distortion,使得一个真实的图像变得扭曲而不再真实。通过AET loss,我们不再直接把变换后的图像作为正例来训练discriminator,而仅仅通过预测transformation本身来对discrminator的训练进行正则化。这种方法,可以使用更大范围地变换,进而获得更好地性能。
附上AET 的原创论文:AET vs. AED: Unsupervised Representation Learning by Auto-Encoding Transformations rather than Data [pdf]
以及期刊版本: Learning Generalized Transformation Equivariant Representations via Autoencoding Transformations [pdf] (这个版本包含更多结果)
作者:王云鹤
https://www.zhihu.com/question/372070853/answer/1035056133
有点激动,投了11篇(整个小组大家辛辛苦苦攒了大半年的工作)。
list一放就去挨个查了一下中了7篇,感谢大家的努力,感谢同事们的支持!
我先把题目发一下:
1.GhostNet: More Features from Cheap Operations(超越Mobilenet v3的架构)
2.AdderNet: Do We Really Need Multiplications in Deep Learning? (加法神经网络)
3.Frequency Domain Compact 3D Convolutional Neural Networks (3dCNN压缩)
4.A Semi-Supervised Assessor of Neural Architectures (神经网络精度预测器 NAS)
5.Hit-Detector: Hierarchical Trinity Architecture Search for Object Detection (NAS 检测,这个我提一句,这个是backbone-neck-head一起搜索, 三位一体哈哈)
6.CARS: Contunuous Evolution for Efficient Neural Architecture Search (连续进化的NAS,高效,具备可微和进化的多重优势,且能输出帕累托前研)
7.On Positive-Unlabeled Classification in GAN (PU+GAN,这个题目倒是很直观哈哈)
再讲一下得分情况,供大家参考(我就不一一对应了),11篇稿子分数分别为:
123,124,224,234,234,234,234,234,2334,144,334
可以看到大多数时候,我们的稿子都是borderline。接下来我们看他们的最终结果:
123,124,224,234,234,234,234,234,2334,144,334
加粗的是中了的,神不神奇,意不意外?334中了,224没中,当然最后的分数我会在cmt系统更新后再刷新,期待会有oral~
作者:知乎用户
https://www.zhihu.com/question/372070853/answer/1035794154
第二篇CVPR,234上岸。
这篇工作还是有些不容易的,deadline最后一周正是香港暴乱最凶残的时候,地铁全被逼停,实验室楼下也都是砖头和黑衣人,最后在恐慌中逃离到深圳,在深圳政府安排的简陋宿舍下赶出来的。这里真的要特别感谢学校和深圳政府那几天给我们一个安定的环境和免费的三餐(直接楼下领取的那种),解决了后顾之忧!
第一轮评审意见出的时候,受新冠病毒影响,我们那边基本已经封路了。看到234的结果,给4的reviewer提了起码十几个问题,最后临时决定回香港,博一下!(PS:幸好走的早,而后几天香港就关口岸和出了强制隔离14天的政策,家那边也强制不让走:)
总的来说,今年的组织者走冷淡风,去年PC们时不时会发一些邮件通知一下进程,去年还暖心地考虑了中国作者过春节的问题。另外,评审过程也更严苛。可以预见,未来会越来越难:( 坑的个数永远跟不上萝卜的增长速度…
作者:知乎用户
https://www.zhihu.com/question/372070853/answer/1034989561
在list里看到自己论文的编号,依旧等邮件中。。感谢共同作者,也感谢其他在我等结果的时候不吝惜鼓励的人。
昨晚没等到结果不甘心地睡去了。。一大早迷迷糊糊睁开眼看到list着实激动了一把。第一次投,初始分数235,虽然给5的审稿人漏洞百出,但是还是一直心存疑虑。尘埃落定,看来rebuttal是起作用了。静静等具体结果看看到底最后审稿意见如何。
作者:Parallel
https://www.zhihu.com/question/372070853/answer/1036786419
第一次投cvpr,运气很好,投了一篇初审2223,中了,希望可以spotlight。工作是关于adversarial attacks in 3D deep learning。adversarial attacks和3D deep learning都很火,但做3D对抗样本的屈指可数,先占个坑。
作者:匿名用户
https://www.zhihu.com/question/372070853/answer/1036586686
第一次投,分割领域,244,没中,提44的两个人感觉没读过分割相关的paper,提了很多非常基础的问题,很像是本科生,虽然在rebuttal里面一一回答了,仍旧无济于事。工作个人认为还比较solid,也是积淀了很久才产出的。第一次体会到了审稿的随机性,感受就是十分劝退,连改eccv的心情都没有了。
作者:匿名用户
https://www.zhihu.com/question/372070853/answer/1035051698
质量应该还行,期待优秀(Oral)的文章,持续推动工业界的进步!
不断更新资源
获取更多精彩
长按二维码扫码关注