今年 VALSE 2023 的举办地刚好在博主目前就读学校的所在地,江苏无锡,欢迎各方学者前来参会。先预告下,今年的确是大模型、多模态的主场了,ChatGPTA、AGI 等等百花齐放。
会议持续 3 天(6月10-12日),7个特邀报告,12 个APR报告,20 场 Workshop,186 篇左右的顶会顶刊 Poster。报告对比去年更多了,论文少了 10 几篇。
第二天开始就是 Workshop 了,都是同时开展的,所以就是各大会场分开跑,这里的顺序按照我参加的 workshop 来排列。
没想到第三天上来就是个大惊喜:多模态大模型与提示学习,开始看就挪不动脚了。确实精彩,而且有意外的惊喜
下午的优秀学生论坛倒是比去年差一些了,但是老师们很强。
每篇博文的内容太多消化不了,请移步以下链接分别浏览:
另外,VALSE 官方的微信文章也出来了:VALSE 2023 在无锡成功召开,5500 余人共舞学术华尔兹。
PS:2023 年每周一篇博文阅读笔记,主页更多干货,欢迎关注。有问题私信或者留言都可,笔者看到后第一时间回复,期待 5 千粉丝有你呦 ~
今天早上看到一篇知乎文章解读:【Valse 2023】预训练模型和语言增强的零样本视觉学习——左旺孟老师
喏,就是这,MCAN,我的研究入门的文章团队作者之一,顺便知道了一作的情况。往下看!
这里余老师太谦虚了,说自己的 ROSITA 系列工作刚好赶在变革前夕。
余老师的 PPT 到这就结束了,一眼看上去绝对是诚意满满的演讲,各自方方面面都总结到了。
接下来是一作的情况:
这篇文章也是想办法减少 Token 的数量来降低计算量。类似的有:
接下来的 VanillaNet 可以说华为确实 6。有一些解读:华为诺亚极简网络,靠13层就拿下83%精度(附源代码)
温馨提示:邵老师很幽默,看起来是个能干者。
很多图片违规了,放不出来,简言之,打篮球的某明星,生动诠释了啥叫“关必黑”呀~
下午的优秀学生论坛有点小失望,失望的是这些学生并未讲解自己写第一篇论文的过程,而是在谈自己的代表作或者最新工作。
另外组委会没有把同方向的老师和学生安排在一起,导致后面的讨论有点不着调了。
主持人安排的学生问题呢,也不是特别有激发灵感。
最后没人问学生问题,我就代表 Juer 问:去年 VALSE 的学生论坛以目标检测、分割为主,今年的不是这些,那么现在还有必要研究目标检测、分割的模型结构吗?
台上一位的回答:“有足够的好奇心可以坚持下去”。怎么说呢,答案没有带点启发,真正有好奇心的已经是巨佬级别了。
当然精彩的地方在于给老师们准备的问题,例如如何应对菜鸟学生以及如何指导写作,新入职的青椒如何应对非升即走,从老师的角度如何应对每周的组会。哈哈,非常有意思。
对了,我给到明年优秀学生论坛的建议一定有:希望邀请报告的优秀学生能着重讲一下他们的第一篇工作,另外合理安排方向一致的老师和同学们在同一个圆桌上。
说实话,优秀学生论坛的我是真的没听懂,方向确实不一样哇。基本上他们都有自己的 Github 主页,感兴趣的可以 Follow 下他们的工作。
写在后面
为期三天的 VALSE 2023 大会顺利结束,其中一些老师提点的概念以及未来的研究方向值得细细思考。尤其是准备或正在读博的同学,这些 topic 都有可能成为博士论文的一部分。最后,期待下明年的 VALSE 2024 大会将在哪里召开。
接下来的论文阅读所选的文章真的不用发愁了,太多了(๑ŐдŐ)b。
快捷跳转链接: