国际表征学习大会(International Conference on Learning Representations,简称 ICLR)是深度学习领域的顶级会议,关注有关深度学习各个方面的前沿研究,在人工智能、统计和数据科学领域以及机器视觉、语音识别、文本理解等重要应用领域中发布了众多极其有影响力的论文。
AMiner 根据对 ICLR2023 的论文进行分析和关键词提取,相对于往年论文收录情况,我们发现几个有意思的事情:
从提交论文的主题来看,最热门的方向与往年相差不大,强化学习、深度学习、表征学习、图神经网络等仍旧是热点。 但是,Transformer论文接收率下降,语言模型论文增多;
清华大学朱军教授和谷歌大脑的Dale Schuurmans两位学者发文数量并列第一;
其中位于Top5%的有90篇论文,论文内容涉及Transformer、in-context learning、扩散模型等内容。
了解 ICLR 2023 收录论文对于人工智能领域科研人员来说,十分重要!
熬了好几个大夜,我们终于把 ICLR2023 的1573篇论文整理好了!我们让AI大模型阅读这 1573 篇论文并分别回答了三个问题,即:
最后我们把这四千多条的答案全部整理好,放到了AMiner网站上!
我们挑选了三篇高浏览量的论文来展示,在看完论文三问后,你是不是对这篇论文有了大致的了解呢?
第一步:打开AMiner网站,点击「顶会」
第二步:在搜索栏中输入「ICLR」,之后点击「ICLR2023」
顶会详情页
第一步:打开AMiner网站,检索你想看的论文或者点进感兴趣的论文
ps:小程序和PC端都可以使用对话功能哦!
PC链接:https://www.aminer.cn/