9月5日,全球最受瞩目的人工智能顶级会议NeurIPS 2019放榜,公布完整入选论文名单。中国科学院计算技术研究所视觉信息处理与学习研究组(VIPL实验室)共有3篇论文被接收。
NeurIPS,神经信息处理系统大会,全称Conference and Workshop on Neural Information Processing Systems,被CCF中国计算机学会列为人工智能A类国际会议,与ICML并列为神经计算和机器学习领域的两大顶级学术会议。NeurIPS将于12月在加拿大温哥华召开。
近几年,由于机器学习大热,NeurIPS投稿论文数量呈几何级增长,今年更是创纪录地收到6743篇论文,最终只有1428篇论文入选,入选率21.17%。
VIPL实验室入选论文创造性地提出新的交互注意力网络来应对未知类别和少样本数据两个关键问题。在表情识别和情感计算方面,通过基于多标签协同正则的半监督面部动作单元识别方法,在提高识别准确性的同时,解决人工标注费时费力的难题。实验室还提出一种平局可感知的偏序个性化学习统一框架,能够消除用户个性化偏好对标注共识结果的影响, 在偏好预测及异常用户检测方面表现出色。
三篇入选论文介绍
1
Cross Attention Network for Few-shot Classification
(Ruibing Hou, Hong Chang, Bingpeng Ma, Shiguang Shan, Xilin Chen)
小样本分类的目标是根据少数标注的样本去识别该类别,其中未知类别(训练类别和测试类别的不一致)和少样本数据是两个关键问题。针对这两个问题,我们提出了一个新的交互注意力网络。首先,我们引进了一个交互注意力模块去处理未知类别的问题。该模块对于每个输入的图像对生成一对注意力图去强调目标物体所在的区域,从而使提取的特征更具有判别性。其次,我们引进了一个新的直推式推理算法去缓解小样本问题。我们提出的直推式算法迭代地利用未标注的数据去扩充标注的数据,从而使提取的类别特征更加鲁邦。在现有的多个数据集上,我们提出的框架都优于当前最好的方法。
2
Multi-label Co-regularization for Semi-supervised Facial Action Unit Recognition
(Xuesong Niu, Hu Han, Shiguang Shan, Xilin Chen)
面部动作单元(AUs)编码了人脸面部的各种基本动作,被广泛应用于表情识别和精神状态分析中,有着重要的应用价值。要训练一个鲁棒的面部动作单元分类器需要大量的数据,然而由于面部动作单元需要专家来进行标注,且标注十分耗时,现有的面部动作单元识别数据集规模都较小。为了解决这一问题,受传统的协同训练框架的启发,我们提出了基于多标签协同正则的半监督面部动作单元识别方法。该方法能够有效利用大量网络图片和少量人工标注图片来训练面部动作单元分类器。针对所有的标注和未标注数据,我们首先使用两个不同的网络来提取多视角的特征,并且利用多视角损失来迫使两个视角所学习到的特征无关。同时,为了约束两个视角预测结果的一致性,我们提出了多标签协同正则损失来约束两个视角的面部动作单元预测概率。此外,我们还通过图卷积网络将不同面部动作单元之间的关系嵌入到分类器之中。通过在少量标注数据和大量的未标注数据上的训练,我们能获得一个有较好的泛化能力的人脸动作单元识别分类器。在多个数据集上的测试都说明了我们算法能够有效利用未标注的数据,大幅度提高了面部动作单元识别的准确性。
3
iSplit LBI: Individualized Partial Ranking with Ties via Split LBI
(Qianqian Xu, Xinwei Sun, Zhiyong Yang, Xiaochun Cao, Qingming Huang, Yuan Yao)
传统的成对比较众包标注学习方法假设用户的标注结果可基本达成共识,因而直接以少量用户的标注投票结果作为真实类标进行学习。然而,在现实场景中,用户的个性化偏好往往较为显著,无法从个性化标注中获得共识结果。鉴于以上问题,本文提出一种平局可感知的偏序个性化学习统一框架以突破现有方法性能壁垒。在该框架中,我们将模型参数分解为共识因子和个性化因子,并提出一种基于变量分离的模型更新算法iSplitLBI,可同时实现个性化学习以及异常用户检测。具体而言,iSplitLBI算法随迭代次数演变可生成不同稀疏程度的参数正则化路径并同时更新模型参数和正则化参数。在每次迭代中,iSplitLBI的变量分离机制可将个性化因子分解为异常分量、个性化分量以及噪声分量之和。异常分量提供模型选择的结构信息,其所非零列即对应异常用户;个性化分量提供模型预测的细粒度信息,可更好的完成个性化偏好预测任务。虚拟及真实数据集上进行的大量定性/定量实验表明,我们的方法在偏好预测及异常用户检测方面均具有良好的表现。
—END—
VIPL研究组隶属于中国科学院计算所及中科院智能信息处理重点实验室,同时也是先进人机通信技术联合实验室(JDL)的一部分。目前,VIPL研究组主要成员包括研究人员20余名、博士/硕士研究生50余名。研究组在相关领域发表研究论文500余篇,其中100余篇发表在计算机学会认定的领域A类国际期刊或会议上。研究成果获2015年度国家自然科学二等奖,2005年度国家科技进步二等奖等。
CV细分方向交流群
52CV已经建立多个CV专业交流群,包括:目标跟踪、目标检测、语义分割、姿态估计、人脸识别检测、医学影像处理、超分辨率、神经架构搜索、GAN、强化学习等,扫码添加CV君拉你入群,如已经为CV君其他账号好友请直接私信,
(请务必注明相关方向,比如:目标检测)
喜欢在QQ交流的童鞋,可以加52CV官方QQ群:805388940。
(不会时时在线,如果没能及时通过验证还请见谅)
长按关注我爱计算机视觉