北京大学
我们是北京大学王选计算机研究所(原北京大学计算机科学技术研究所)VDIG (Visual Data Interpreting and Generation) 研究组,导师是王勇涛老师。研究方向包括:1)计算机视觉感知基础问题如目标检测、分割、识别等;2)深度学习相关前沿机器学习问题如自动机器学习/神经网络架构搜索(AutoML/NAS),持续学习问题(Continual Learning)、自监督学习(Self-supervised learning)等。
在目标检测、场景文字检测识别等研究方向上达到国际一流水平,近年来在 AAAI、ICCV、MM、ECCV 等顶会上有重量级成果发表,如通用目标检测当前最强算法之一“组合主干网络”(CBNet)、当前最快的自动数据增广策略搜索算法“可微分的自动数据增广”(DADA)、曾获得 ICDAR 2017 多项场景文字检测竞赛冠军的四边形目标检测算法等。
组内学生/实习生曾多次获得国内外 CV 领域重量级竞赛的冠亚军奖项,如 ECCV 2018 无人机航拍视频目标检测竞赛(Vision Meets Drones: A Challenge,task 2 Object Detection In Videos)冠军、CVPR 2018 上无人驾驶道路目标检测竞赛(WAD 2018 Challenges,task 2 Road Object Detection)亚军、ICDAR 2017 上中文场景文字检测竞赛(RCTW)和英文场景文字检测竞赛(COCO-Text)双项冠军。
和国内外知名高校、科研机构有着广泛合作、和国内外 AI 头部公司(如阿里巴巴、蚂蚁金服)有着长期的项目合作,学生、实习生就业、留学去向非常好,且组内有一定的保研、直博名额。
基本要求
1. 欢迎大二或大三本科同学或者有意向在国内及海外继续深造的同学报名;
2. 有足够的自我驱动力,期待能做出一些研究成果;
3. 具备扎实的编程和数学基础,良好的英语水平;
4. 有深度学习相关项目经历或者有基础者优先考虑(没有也没关系)。
投递邮箱:
邮件标题请注明:实习-保研/出国-姓名-学校-专业(请附上个人简历)
【重磅】斯坦福李飞飞《注意力与Transformer》总结,84页ppt开放下载!
一文总结微软研究院Transformer霸榜模型三部曲!
Swin Transformer为主干,清华等提出MoBY自监督学习方法,代码已开源
加性注意力机制!清华和MSRA提出Fastformer:又快又好的Transformer新变体!
MLP进军下游视觉任务!目标检测与分割领域最新MLP架构研究进展!
周志华教授:如何做研究与写论文?(附完整的PPT全文)
都2021 年了,AI大牛纷纷离职!各家大厂的 AI Lab 现状如何?
常用 Normalization 方法的总结与思考:BN、LN、IN、GN
注意力可以使MLP完全替代CNN吗? 未来有哪些研究方向?
欢迎大家加入DLer-计算机视觉&Transformer群!
大家好,这是计算机视觉&Transformer论文分享群里,群里会第一时间发布最新的Transformer前沿论文解读及交流分享会,主要设计方向有:图像分类、Transformer、目标检测、目标跟踪、点云与语义分割、GAN、超分辨率、视频超分、人脸检测与识别、动作行为与时空运动、模型压缩和量化剪枝、迁移学习、人体姿态估计等内容。
进群请备注:研究方向+学校/公司+昵称(如Transformer+上交+小明)
长按识别,邀请您进群!